É nossa responsabilidade encontrar maneiras de incorporar os valores humanos nas atuais estruturas tecnológicas para criar o ambiente online que desejamos.
O tema das notícias falsas está na vanguarda do nosso debate político, agora mais do que nunca. O que fez com que estivesse presente em todos os lugares? Como podemos combatê-las? Seria apenas um resultado inevitável de a internet ter aberto um espaço mais amplo para a comunicação?
No meu artigo anterior, percebi como é comum a trollagem nas seções de comentários dos meus artigos online e nas mídias sociais. Mas eu me recuso a acreditar que esse fenômeno é um aspecto inevitável das recentes tecnologias de comunicação. Não há nada na estrutura da própria internet que necessite a verdade se perdendo em um pântano de fatos alternativos e ataques pessoais. Pode ser que isso seja mais fácil agora, dado o grande volume de informações que podem ser transmitidas online, mas continua sendo nossa a responsabilidade para definir os padrões para os diálogos que queremos manter. Ao escrever em meu próximo livro sobre Inteligência Artificial e a colaboração entre homens e máquinas, chamado Deep Thinking, os avanços tecnológicos podem trazer novos obstáculos, mas a superação desses desafios nos tornará mais criativos, obrigando-nos a inovar ao invés de nos afastarmos do progresso que já fizemos. Então, vamos pensar criativamente, para ver se podemos resolver novos problemas sem restringir as antigas liberdades.
Uma resposta ao incessante trolling online é desistir e tirar a conclusão que esse tipo de atividade é parte integrante da internet e que, se quisermos ter um diálogo onde só participem pessoas bem informadas e respeitosas, temos de abandonar a internet e manter uma conversa cara a cara. Uma abordagem mais produtiva, acredito, seria nos perguntar como podemos combinar os melhores elementos da interação humana com o extraordinário potencial da tecnologia. Uma empresa de notícias norueguesa forneceu recentemente um exemplo de como fazer exatamente isso.
A NRK implementou um teste piloto em certas histórias onde os leitores têm de responder a várias perguntas de múltipla escolha antes de poderem postar um comentário. O benefício é duplo: barrar os trolls profissionais, fazendo com que todo o processo leve mais tempo e, para os verdadeiros leitores, exigindo que tenham uma compreensão mínima dos fatos antes de postar, em vez de atacar tendo lido apenas a manchete. Em outras palavras, o método quer solucionar tanto as campanhas deliberadas de desinformação, como o perigo de uma discussão baseada não em evidências reais, mas em vícios arraigados.
Esta intervenção visa reintroduzir padrões claramente humanos na discussão online. Se quisermos facilitar o debate produtivo sobre o futuro da nossa sociedade, precisamos preservar uma estrutura compartilhada de conhecimento e também normas de comunicação respeitosa. Não há motivo para que não possamos fazer isso na Internet e continuarmos a aproveitar o seu poder de democratizar a informação. Só precisamos encontrar novas maneiras de incorporar nossos valores nas estruturas tecnológicas atuais. Uma maneira de fazer isso pode ser um questionário sobre a notícia, mas existem inúmeras outras possibilidades ainda não exploradas. Os moderadores humanos ainda têm um papel a desempenhar na regulação de discussões virtuais? Os algoritmos podem ser treinados para moderar a convivência humana da mesma forma que eles podem filtrar palavras profanas em mensagens de texto e senhas fracas em sites bancários? Eu não pretendo ter as respostas por mim mesmo. Devemos nos perguntar o que nós valorizamos e que medidas estamos dispostos a colocar em prática para criar o ambiente online que queremos.
Ao mesmo tempo em que pensamos criativamente sobre como manter a qualidade do nosso diálogo, devemos também salvaguardar a sua segurança. Este é mais um exemplo em que as novas tecnologias nos levam para além dos nossos limites, até encontrar soluções para problemas cada vez mais complexos. Como podemos agora aplicar essa estratégia – combinar o melhor que os seres humanos e as máquinas têm para oferecer – para enfrentar os nossos desafios de segurança? Podemos tornar o gerenciamento de senhas mais fácil de usar, expandindo a abordagem das empresas que fornecem softwares de criptografia de senha para eliminar a necessidade de memorizar dezenas de logins. Ou podemos tornar mais explícita a troca de dados pessoais para serviços gratuitos, lembrando aos usuários que se inscrevem que estão concedendo acesso a suas informações pessoais.
Independentemente das medidas exatas, devemos aproveitar as nossas forças e deficiências humanas a fim de realizar ações que garantam uma segurança mais intuitiva e atraente. Isto é, mais humana. Nenhum sistema de segurança funcionará se as pessoas se recusarem a usá-lo ou não entenderem como usá-lo com eficiência. Em alguns casos, a segurança torna-se uma questão de defesa coletiva, onde uma pequena fração de pessoas pode colocar outras milhões em risco. É provável que tenhamos de implementar algum tipo de coação legal, da mesma forma como as pessoas são obrigadas a vacinar os seus filhos antes de os enviar para a escola. Por exemplo, um fabricante que produz um dispositivo que pode ser facilmente invadido e transformado em uma arma online tem de assumir essa responsabilidade. E como fazer com os usuários individuais que não conseguem atualizar os seus computadores pessoais, permitindo que eles façam parte de uma rede zumbi que pode prejudicar e derrubar toda a internet? Essas máquinas devem ser proibidas de se conectar à internet? Em que ponto a cibersegurança se torna uma questão de responsabilidade legal por colocar outras pessoas em risco, da mesma forma que dirigir embriagado?
Cada um de nós tem a responsabilidade, como cidadão da era digital, de pensar em como contribuímos para esse diálogo. Também somos responsáveis por manter a nossa informação, e, por extensão, todo o sistema, seguros. Muitas vezes, essas responsabilidades estão entrelaçadas, como quando o Facebook usa as informações coletadas pelos usuários para determinar quais notícias devem aparecer em seus feeds de notícias. No que se refere à segurança, cedemos autoridade sobre nossos dados pessoais, permitindo que eles possam ser abusados por terceiros. Mas, talvez o mais importante de tudo, é que estamos ficando cada vez menos tolerantes com os pontos de vista que conflitam com os nossos, pois as informações que encontramos são cada vez mais personalizadas para nós.
As consequências negativas de tais algoritmos podem não parecer particularmente perigosas, mas com o tempo podem mudar o tecido da nossa sociedade, online e offline. No entanto, se aproveitarmos a ocasião, esses desafios podem ser a oportunidade de aprimorar as nossas habilidades humanas para resolver problemas. Os problemas continuarão a surgir, como é próprio da inovação, mas devemos vê-los com um olhar positivo: são uma chance de mostrar que ainda temos o domínio sobre a tecnologia que nós mesmos projetamos.