Viewpoints

Poderia a inteligência artificial ser maléfica?

Garry Kasparov, 31 Julho 2019

Uma conversa com Noel Sharkey, da Fundação Robótica Responsável.

É sempre uma grande honra falar com um dos pais da cibernética e da computação. Aliás, uma das vantagens da inteligência artificial (IA) e da robótica serem campos relativamente novos é que muitas das pessoas que criaram essas áreas ainda estão vivas e ativas. É como se pudéssemos falar sobre democracia com Thomas Jefferson, ou sobre física com Albert Einstein. E, sempre que possível, não deveríamos perder uma oportunidade dessas.

Esses criadores geralmente têm pontos de vista bem distintos sobre a tecnologia que ajudaram a criar. Eles têm uma visão mais ampla a respeito de como a tecnologia deve impactar a sociedade, ao invés de olhar o avanço tecnológico somente pelo viés do progresso. Os capitalistas de risco, bilionários do Vale do Silício e fundadores de startups têm seus próprios interesses, sejam eles corporativos ou pessoais, que os sábios anciões já transcenderam. Isso não quer dizer que eles estão sempre certos, claro, mas significa que deveríamos ouvir o que dizem sempre que possível.

Eu tive a sorte de conhecer algumas dessas mentes iluminadas, como o inventor Ray Kurzweil, o cientista de computação Leonard Kleinrock e até o cocriador do UNIX, Ken Thompson. Esses homens são, direta ou indiretamente, responsáveis por muitas das tecnologias que você precisa para, por exemplo, ler este artigo. Em 2016, enquanto participávamos de uma conferência sobre IA em Oxford, fiquei feliz por poder incluir um outro figurão em minha “liga de pessoas lendárias”. Ele é Noel Sharkey, da Universidade de Sheffield, na Inglaterra. Como professor de IA e robótica, mas que também é doutor em psicologia, ele se tornou famoso quando foi comentarista no programa “Robot Wars” (Guerra de Robôs, em tradução livre), apresentado em uma rede de TV britânica. Noel também é um ativista político influente. Ele quer garantir que os “humanos” não sejam esquecidos em assuntos ligados aos “direitos humanos”, como o que diz repeito às máquinas autônomas de matar. Seu trabalho nessa área é desenvolvido com sua Fundação Robótica Responsável, que faz campanha nas Nações Unidas e em outras organizações.

GarryNoel

Dessa forma, ele foi um parceiro ideal para uma conversa no palco principal do evento VivaTech, realizado em maio, em Paris. Nós nos deparamos com uma questão simples: poderia a inteligência artificial ser maléfica? Para economizar seu tempo, nós dois começamos a conversa com um alerta spoiler: “Não!” Mas claro que, depois dessa afirmação, veio um “mas...”, caso contrário, nossa conversa teria sido muito breve.

Começamos dando voltas pelo assunto. E isso se mostrou um contraste iluminador, como sempre acontece quando se está falando com alguém multifacetado como Noel. Referindo-se à minha batalha pessoal contra máquinas de xadrez - em comparação à minha defesa do relacionamento entre humanos e máquinas inteligentes - ele disse que ainda se sentia incomodado com minha derrota para o computador Deep Blue da IBM, em 1997. Eu quase consegui expulsar esses demônios quando lancei, em 2017, o meu livro “Deep Thinking”. Então, foi divertido ouvir que Noel estava zangado por mim e pela comunidade de IA. Muitos naquele grupo sentiram que o aspecto científico histórico do combate de xadrez entre homem e máquina - o que remete ao cientista da computação Alan Turing - tinha sido abandonado puramente em favor da competitividade. (Como reconheço em meu livro, isso foi uma jogada certeira da IBM e culpa minha por subestimar o que a ênfase dessa mudança dramática significaria.)

 

 

Um problema específico mencionado por Noel apresenta uma ironia relevante para nossos encontros com as máquinas de hoje, que são infinitamente mais inteligentes. Ele aponta que, por causa da conexão de rede do Deep Blue, nunca seria possível ter 100% de certeza de que as regras do jogo limpo estavam sendo honradas, mesmo que você também não pudesse provar que elas não estavam. Essa falta de transparência foi o problema principal, e não alguma alegação particular de inconveniência.

Exatamente 20 anos depois, aquelas mesmas questões estão na principal frente de batalha dos debates envolvendo IA e “IA ética”, mas, agora, exatamente ao contrário. Ao invés de nos certificarmos que as máquinas inteligentes de agora são completamente autônomas, assim como um computador de xadrez, agora queremos nos certificar de que elas não são. Queremos garantir que nenhuma máquina tome decisões que possam mudar (ou tirar) a vida de pessoas sem uma intervenção ou supervisão humana.

É um equívoco comum achar que máquinas não cometem erros. Mesmo em sistemas fechados, como é o caso do xadrez, em que um aplicativo livre no seu smartphone é muito mais poderoso do que um oponente humano (e do que o Deep Blue), elas não são perfeitas. Mas em tais sistemas, elas são inevitavelmente melhores, e isso é muito importante, quer seja em um jogo de xadrez ou em um sistema relativamente aberto capaz desenvolvido para diagnosticar câncer ou dirigir um carro. Essas implicações práticas têm pouco a ver com inteligência artificial geral (IAG), que rivaliza com a habilidade humana de aprender e entender contexto. Segundo Noel, dizer que uma máquina é “mais inteligente” do que nós, sendo que ela não pode conversar com alguém ou preparar uma xícara de chá, é abusar do termo.

Aquela história “mitológica” sobre o poder de máquinas superinteligentes, a singularidade e a IAG nos distraem dos perigos reais e preocupações do presente. Nossas ferramentas inteligentes vão nos ajudar a superar nossos desafios caso os encaremos de maneira criativa e séria. Elas não são robôs exterminadores do futuro, mas também não são uma varinha mágica. Elas vão nos dar poder, tanto para o bem, quanto para o mal.

Reclamar sobre os problemas da IA é como reclamar da imagem refletida no espelho.

Como gosto de dizer, reclamar sobre os problemas da IA é como reclamar da imagem refletida no espelho. Distorcê-la, não vai resolver o problema. Nossos algorítimos, não importa o quão sofisticados sejam, vão sempre refletir a nossa imagem. Isso não significa que eles não sejam úteis em expor aquele problema e encontrar muitas coisas interessantes em um oceano de dados. Mas isso deveria significar que não podemos fingir passar a responsabilidade e a prestação de contas da humanidade para um algorítimo.

“Inteligência aumentada” no lugar de inteligência artificial

É mais fácil olhar para IA como uma ferramenta se você passar a chamá-la de “inteligência aumentada” ao invés do termo assustador e vago de “inteligência artificial”. Noel revelou que falou sobre esse assunto diretamente com o homem que, em 1956, cunhou essa palavra, John McCarthy. O cientista da computação disse a ele que desejava nunca tê-la usado, porque causava muita confusão! Mas quatro anos antes, disse McCarthy, ele e John von Neumann apareceram com o nome “teoria complexa dos autômatos”, mas ninguém se interessou pelo assunto. Porém, assim que deram o nome de “inteligência artificial”, o assunto tornou-se uma grande sensação!

Confusão e medo são inimigas do progresso. Como disse Noel, há muitas preocupações reais relacionadas à IA, desde algorítimos que decidem sentença de prisão até reconhecimento facial tendencioso e sistemas de armas que selecionam seus próprios alvos sem intervenção humana. Nenhuma empresa ou país quer ficar para trás na corrida tecnológica, mas isso pode significar más notícias para a única corrida que realmente importa: a corrida humana.

Acabamos em uma observação otimista - apesar da obsessão pública com fantasias distópicas sobre robôs e tecnologia mais inteligente, essas coisas continuarão a ser um benefício para o mundo, tornando-nos mais produtivos, saudáveis e prósperos. Noel finaliza com uma afirmação improvável parafraseando o presidente dos EUA: “faça os humanos grandes novamente!”