Pontos de vista

Se a IA não esquece nunca, temos que ensiná-la a perdoar

Garry Kasparov, 10 Outubro 2019

A inteligência artificial está nos escutando e não há como impedir isso, mas precisamos garantir a privacidade das crianças.

“Temos coisas demais para pensarmos no dia a dia, coisas demais para aprender. Novos sistemas, novos conhecimentos, novas técnicas, novo jargão… Por outro lado, existem lembranças que, por mais que o tempo passe, aconteça o que acontecer, não conseguimos de maneira alguma apagar da nossa memória. Lembranças que não se desgastam. Que restam em nosso íntimo, irremovíveis como pedras angulares”. – Haruki Murakami, “Kafka à beira-mar”

De acordo com um estudo* lançado recentemente pela Microsoft, usuários de assistentes digitais, como a Alexa da Amazon e a Siri da Apple, continuam dando preferência à conveniência do que se preocupando com potenciais questões ligadas à privacidade. Oitenta por cento dos participantes afirmam que estão satisfeitos com as vantagens proporcionadas por esses aparelhos, enquanto apenas pouco mais da metade desse montante (41%) se preocupa com a segurança dos dados coletados. Como já escrevi anteriormente*, essa é uma questão que todos devemos avaliar na era digital, e não há uma resposta certa ou errada para isso. Mas há decisões tomadas de forma bem embasada e outras não. Desconfio que os participantes dessa pesquisa não consideraram devidamente as possibilidades de uso dos dados que alimentam esses assistentes virtuais. Assim que seus dados são introduzidos em um algoritmo, a cadeia de propriedade daquela informação se rompe e você perde controle sobre ela. Para crianças, isso se torna um fardo injusto, bem como um potencial risco à segurança.

Mesmo que você confie nas empresas que coletam seus dados e no algoritmo que o analisa e aplica, há o perigo de que cibercriminosos* possam acessá-los. Dá para entender o que um grupo de criminosos cibernéticos quer com nossos números de cartões de crédito e identidade, mas não dá para imaginar o dano causado pelo uso de análises feitas por uma inteligência artificial (IA) sobre nosso comportamento, dados biométricos e outros dados sigilosos. Entidades governamentais poderiam usar essas informações para roubar segredos pessoais, influenciar eleições ou ainda manipular e chantagear funcionários públicos. Estados repressores já estão se aproveitando de ferramentas hackers para perseguir dissidentes* e outros grupos de oposição.

Seus dados pessoais alimentam máquinas de IA

Ainda há razões imediatas para desconfiar dos assistentes digitais. O modelo de negócio vigente depende de melhorias constantes na sua precisão e inteligência. Os dados que entram são assimilados por um algoritmo de aprendizado, ajudando a IA a evitar erros cometidos no passado e, assim, fazer previsões mais acuradas. Em um ciclo recorrente, o consumidor recebe os benefícios da tecnologia, enquanto oferece continuamente material para sua melhoria. Mais ou menos na mesma época em que a Microsoft lançava seu estudo, foi revelado que a Amazon tem um time dedicado* de funcionários que escuta as gravações feitas pela Alexa com o objetivo de treinar e melhorar o desempenho do software. Em resposta, a Amazon enfatizou que só grava “uma parte muito curta” das conversas para melhorar a experiência do consumidor. No entanto, o que mais perturba é que mesmo os usuários que escolhem não ter suas conversas gravadas alimentando o sistema podem estar sujeitos a esse processo manual de revisão. Neste mês, o Facebook também admitiu* que contratou empresas para escutarem e transcreverem conversas do Messenger. Depois, a Apple confessou que tinha funcionários escutando gravações da Siri*, incluindo, ao que se sabe, até mesmo usuários fazendo sexo. Em outras palavras, a informação que você fornece a um assistente digital não vai somente para a caixa preta de uma IA. Outros humanos poderiam muito bem ouvir a gravação e rastreá-la até você.

Temos a tendência de nos preocupar mais com humanos acessando nossos dados, mas o que dizer sobre os próprios algoritmos? O problema não está limitado particularmente a essa classe de produtos, como os assistentes digitais. Há questões éticas muito mais abrangentes envolvendo a IA. Os bits de informação que fornecemos às máquinas inteligentes podem entrar no sistema como pacotes discretos, mas a partir de então eles deixam de ser identificáveis, absorvidos pela rede. Não é mais uma simples questão de se ter direitos e regulações que garantem aos consumidores a propriedade sobre seus dados. Hoje, nossas informações estão sendo incorporadas perpetuamente a algoritmos complexos, que geralmente não são mais transparentes, nem mesmo para os engenheiros que os desenvolveram.

Nossos pontos de dados individuais ajudam a fortalecer e expandir esses sistemas, mas, nesse processo, perdemos a propriedade sobre eles. No caso da IA, não existe uma forma de convencer alguém a devolver a posse de uma propriedade digital a uma pessoa. É preciso enfatizar que essas considerações não são questões puramente filosóficas. Veja o Regulamento Geral sobre Proteção de Dados (RGPD) da União Europeia, aprovado no ano passado: problemas tangíveis de implementação surgem imediatamente. Como órgãos reguladores podem forçar o cumprimento do direito ao esquecimento* se o dado em questão já foi incorporado a processos de aprendizado de uma IA?

Os erros das crianças deveriam continuar sendo delas

Também podemos considerar as implicações concretas de diferentes grupos, como a geração que está crescendo no meio dessa tecnologia. Como descrito em um artigo imperdível da revista Wired*, essas crianças enfrentarão dificuldades que nenhuma geração anterior encontrou. Uma delas são os extensos registros digitais documentando suas vidas desde a infância. Isso irá persegui-los em todas as entrevistas de emprego e pedidos de empréstimo que fizerem, sem contar seus potenciais namoros.

Um ser humano pode reservar um tempo para explicar às crianças e adolescentes o impacto de dados perenes. O mesmo não vale para os assistentes digitais e outros agentes de IA, que capturam as informações sem pensar sobre isso. Elas colhem a informação com uma indiferença a essas considerações. A informação coletada pode então ser plugada em um algoritmo que define resultados sociais importantes. Por exemplo, um estudante que é pego colando em um vídeo pode continuar a ser lembrado e penalizado por esse erro ainda na vida adulta, causando um círculo vicioso de fracasso e mais infrações. Presumivelmente, gostaríamos de construir sociedades que deixam as crianças cometerem erros para aprenderem com eles. Ainda assim, ao colocar muito poder nas mãos da IA, estamos preparando o palco justamente para que o contrário ocorra: um mundo no qual erros do passado se tornam marcas permanentes no registro das pessoas, limitando as oportunidades de autoevolução.

Enquanto refletimos sobre essas questões, devemos contrapor, como sempre, a incrível capacidade dessas tecnologias com seus pontos negativos. Deveríamos continuar melhorando sistemas de IA para melhor servir nossos objetivos. Na medida em que essas máquinas se tornam mais inteligentes e eficientes, elas se tornarão parceiras ainda mais importantes a nos ajudar a construir sociedades vibrantes e prósperas.

Os problemas discutidos acima são sérios e exigem atenção urgente. Não vamos encontrar a melhor solução se falharmos na manutenção de nossos valores fundamentais diante dessa discussão. Uma regulação deve ter o objetivo de preservar o comprometimento com a privacidade individual de forma adequada à era digital (uma batalha que já vem desde, pelo menos, a invenção do telefone, como irei me aprofundar na minha próxima postagem). O imenso poder da IA está em encontrar conexões de dados que são invisíveis à mente humana, o que inevitavelmente deve ter consequências indesejadas.

Além de considerar os avanços tecnológicos, as soluções, agora, devem ser mais globais para corresponderem à escala da tecnologia a que se referem. É preciso um esforço para garantir esses direitos sem bloquear o caminho em direção ao progresso tecnológico contínuo. Como pai de crianças pequenas, estou muito mais animado do que temeroso por meus filhos crescerem em tempos revolucionários. Mas para garantir que eles colham os benefícios das poderosas ferramentas digitais disponíveis nas pontas dos seus dedos, devemos reconhecer as consequências a longo prazo dessa tecnologia, especialmente na vida daqueles que ainda são jovens demais para serem ouvidos.