A inteligência artificial pode ser má? Garry Kasparov explica como a inteligência artificial funciona e onde a ética entra em campo.
Davos 2019, a reunião anual do Fórum Econômico Mundial, aconteceu em janeiro na cidade homônima na Suíça. Como era esperado, a inteligência artificial surgiu como um dos principais tópicos de discussão (com 40 sessões dedicadas a ela, perdendo apenas para o comércio EUA-China). No entanto, o foco da maior parte das conversas era a articulação de princípios abstratos sobre a importância da ética na inteligência artificial ou, na melhor das hipóteses, exigências de colaboração e pesquisa nessa área.
Eu acredito na importância de expressar e debater os problemas que provavelmente enfrentaremos à medida que a inteligência artificial continuar a ganhar força e escopo. Um dia, ela afetará o mundo além da internet. Porém, já chegamos ao ponto em que é necessário também agir e não só conversar. Repetir princípios ambiciosos sem propor mecanismos concretos para a sua implementação ou a sua aplicação é uma forma de as empresas lidarem superficialmente com o problema, evitando ao mesmo tempo qualquer coisa que afete seus resultados. A ética, tal como a segurança, não pode ser apenas um problema de publicidade.
Alguns dos pontos levantados em Davos ecoam sentimentos que expressei no passado e são úteis como diagnóstico do impacto que a inteligência artificial poderia ter nos negócios e na sociedade. Uma visão que expresso há anos em face do crescente sentimento distópico e antitecnológico é que nossa tecnologia é agnóstica e tive o prazer de ouvir o CEO da Salesforce Marc Benioff enfatizar justamente isso. A questão de como podemos integrá-la com o nosso mundo torna-se ainda mais importante quando reconhecemos essa característica fundamental. Isso nos dará um enorme poder, para o bem ou para o mal, da mesma maneira que dividir o átomo pode gerar energia útil ou criar uma bomba devastadora.
As conversas abstratas em Davos costumavam parecer como se eles acreditassem que podemos criar uma inteligência artificial que é inerentemente boa, ou pelo menos incapaz de fazer o mal. Isso é muito parecido com a crença de que podemos criar seres humanos desse jeito, o que é uma falácia óbvia. É claro que os humanos têm livre-arbítrio e a inteligência artificial não mostra nenhum sinal disso, não importa quanta autonomia lhe for dada. Mas a ética não é xadrez. Não podemos projetar trivialmente máquinas que são mais éticas do que a gente, da mesma forma que um programador pode criar um programa de xadrez que jogue xadrez muito melhor do que ele. Uma chave é usá-las para revelar nossos preconceitos humanos, para que possamos melhorar a nós mesmos e a nossa sociedade em um ciclo positivo.O reconhecimento é apenas um ponto de partida. Executivos-chefes e líderes de políticas devem usar esse entendimento para adaptar suas práticas e também a contratação de um diretor de ética e humanização, como a Salesforce recentemente fez, é um gesto muito bem-vindo. Idealmente, o comportamento ético também é lucrativo, mas, caso contrário, ele deve ser aplicado compulsoriamente (o que é a própria definição de lei) e isso é o que as empresas temem.
Outra visão expressa com frequência na reunião na Suíça foi a importância de os humanos trabalharem em colaboração com a inteligência artificial. Como argumentei extensivamente no meu livro Deep Thinking e como um recente relatório (que agora inclui em suas práticas recomendadas propostas para integrar a inteligência artificial), a tecnologia funciona melhor quando os humanos atuam. A inteligência artificial não demonstrou o potencial para ultrapassar os seres humanos em criatividade nem julgamento. Seus pontos fortes são a assimilação de grandes quantidades de dados, o rastreamento de padrões e a realização de previsões e não o reconhecimento de seus preconceitos ou interpretação de contextos sociais com nuances.
As empresas entendem isso e é por isso que as plataformas de mídia social têm funcionários dedicados a garantir que seus algoritmos de filtragem de informações estejam funcionando de acordo com o planejado. Da mesma forma, os profissionais de medicina ainda precisarão assinar as recomendações feitas pelos sistemas de inteligência artificial e aplicar seu conhecimento mais profundo das circunstâncias do paciente. E os sistemas de serviços automatizados não vão substituir tanto o trabalho humano, quanto liberar o tempo dos funcionários para poderem lidar com situações que escapam da compreensão de inteligência artificial. Essa compreensão está em constante expansão: estamos, até certo ponto, treinando nossos substitutos, então precisamos permanecer ambiciosos em nossos objetivos para que possamos continuar na frente.
Como, então, os líderes de negócios e os formuladores de políticas devem aplicar essas ideias principais? Duvido que a estratégia apresentada mais frequentemente pela indústria de tecnologia possa criar mudanças significativas. De acordo com este modelo, as empresas, sem qualquer supervisão, devem tomar medidas por conta própria para mitigar as desvantagens e perigos potenciais da inteligência artificial. Algumas das medidas necessárias podem afetar os lucros, pelo menos no curto prazo, e temos visto repetidamente, os gigantes do Vale do Silício priorizando os interesses dos acionistas. O exemplo mais recente: mesmo após todos esses anos de inspeções minuciosas, o Facebook admitiu em janeiro o pagamento de 20 dólares a adolescentes para instalarem um "aplicativo de pesquisa" que baixa todas as suas atividades tanto no telefone quanto na internet. É difícil acreditar em entidades que abusaram da confiança do público de forma tão consistente. No campo da Inteligência Artificial, também suspeito que medidas relativamente corriqueiras que gerem boa publicidade, mas que evitam mudanças de comportamento, é o melhor que podemos esperar.
Isso significa que, mais cedo ou mais tarde, o governo terá um papel dentro de limites sensatos. Acho que uma comparação, não muito exagerada, pode ser feita com os barões ferroviários e os titãs financeiros do início do século XIX. Nesses casos também, os interesses investidos eram simplesmente esmagadores e tão contrários ao interesse público que a iniciativa de Teddy Roosevelt de desmembrar os trustes era apropriada. Embora eu esteja longe de advogar pelo grande governo, tendo visto sua pior face possível como cidadão soviético, há situações que exigem regulamentação e supervisão. A OCDE já começou a realizar conferências sobre inteligência artificial para unir indústria, acadêmicos e governo, como uma no ano passado na qual contribuí com um breve vídeo de abertura.
A inteligência artificial, como é o caso com outras tecnologias, não pode ser criada para ser mais ética apenas porque ela é “inteligente”. Não existia “trem ético” nem “rádio ético”, apenas usos éticos dessas tecnologias que exigiam normas e regulamentos. Ainda estamos bem longe da “internet ética”, com abusos que superam normas e leis. Isso não significa que devemos desistir, apenas que precisamos nos esforçar mais e fazer um trabalho melhor.
Os políticos dos EUA estão começando, embora tardiamente, a reconhecer a importância do debate. A recém-eleita congressista Alexandria Ocasio-Cortez recentemente publicou um tweet sobre o perigo do preconceito na inteligência artificial, que pode ampliar as suposições humanas numa escala sem precedentes. O governo de Singapura deu um passo a frente: ele divulgou uma estrutura sobre inteligência artificial ética na cúpula de Davos, com diretrizes para o setor privado sobre como implementar a inteligência artificial de maneira transparente, responsável e “com o foco no ser humano”. Singapura tem um dos climas de negócios mais favoráveis do mundo, mas seus líderes reconhecem que o crescimento de longo prazo depende da promoção e aplicação de padrões claros. No final das contas, as empresas querem a estabilidade necessária para fazer previsões sobre o desempenho futuro. Deixar a responsabilidade da regulamentação apenas para o setor privado deixa o campo atolado nas incertezas, e isso é um resultado ruim para legisladores, investidores e consumidores.
Embora estruturas de orientação sejam um ponto de partida útil, quais seriam as soluções na prática? Uma possibilidade que tenho em mente diante dos últimos grandes vazamentos de dados, chamado de Collection #1, seria a existência de um serviço central do governo que notificaria as pessoas quando suas contas fossem hackeadas Houve tentativas esporádicas de construir esta ferramenta, com algum sucesso. Seria ideal se tivéssemos a credibilidade e possível autoridade de um órgão público fiscalizador em algum momento no futuro. Imagine como esse sistema de notificação poderia ser poderoso e ajudar as pessoas a mitigarem os danos das informações roubadas, chamando a atenção para a gravidade do problema e agindo como um repelente contra esses ataques.
Como sempre, termino com uma nota de cautela e responsabilidade pessoal. No final das contas, cabe ao consumidor proteger suas informações digitais, especialmente considerando que a inteligência artificial continua avançando rapidamente, enquanto as estruturas regulatórias tem dificuldades em acompanhar. Faça pequenas coisas que você pode controlar. Ou, usando as palavras mais poéticas atribuídas a Oliver Cromwell, “Confie em Deus e mantenha a pólvora seca”. Torne-se menos vulnerável a cibercriminosos com um gerenciador de senhas, nunca reutilize senhas e seja cauteloso com os e-mails que solicitam informações sobre suas contas. Usar senhas quando vazamentos são inevitáveis é como ter a mesma chave para seu carro, sua casa e suas contas bancárias.
Como foi confirmado em Davos 2019, os líderes econômicos e políticos ainda têm dificuldades em decidir qual seria a melhor forma de monitorar o mundo digital e eu sou realista o suficiente para acreditar que eles talvez não tenham no coração os melhores interesses do público. Neste clima de rápidas mudanças tecnológicas, eu encorajaria todos a serem otimistas sobre as possibilidades que a inteligência artificial e outras tecnologias inovadoras podem abrir, e a se manterem altamente vigilantes sobre como interagem com essas novas ferramentas.