Deepfakes: o que são, como são criados e o abuso de privacidade

David Strom 21 jan 2021

Como identificar e detectar deepfakes

Hany Farid, professor da Universidade da Califórnia (EUA), fez uma apresentação na conferência virtual CyberSec&AI Connected, realizada pela Avast. O evento trouxe os principais nomes do mundo acadêmico e da indústria de tecnologia para examinar questões críticas em torno da inteligência artificial (IA), principalmente no que diz respeito à privacidade e à segurança cibernética.

Fared passou boa parte da sua carreira pesquisando o uso e a evolução dos vídeos deepfake. Foi uma sessão interessante, com demonstrações do tempo que deve levar até que os criadores desse tipo de conteúdo passem a criar vídeos mais realistas, e o que pesquisadores da área de segurança terão que fazer para detectar essas falsificações.

Ele começou sua palestra mostrando a evolução dos vídeos deepfakes: O que começou com um software simples e inocente de edição de fotos, acabou se tornando uma indústria focada na “poluição do ecossistema online das informações em vídeo”. Nos últimos anos, o mundo viu surgir alterações de imagens mais sofisticadas e o uso de ferramentas com IA para criar essas deepfakes. Farid ilustrou seu ponto misturando um vídeo das estrelas de Hollywood Jennifer Lawrence e Steve Buscemi. Como resultado, o clipe manteve as roupas, o corpo e o cabelo de Lawrence, mas com o rosto de Buscemi. Claro que isso não foi desenvolvido para enganar ninguém, mas mesmo assim foi uma demonstração assustadora de como essa tecnologia funciona.

Farid classifica as deepfakes em quatro categorias:

  • Pornográfico não consensual, que é o exemplo mais comum. Nele, o rosto de uma mulher é colado em um vídeo pornográfico para ser distribuído pela internet.

  • Campanhas de desinformação, que são desenvolvidas para enganar as pessoas e “jogar mais lenha na fogueira”.

  • Alteração de provas legais, como a demonstração de uma conduta inadequada de policiais que, na verdade, nunca aconteceu. Em suas atividades não acadêmica, o professor oferece consultoria frequente nessa área, sendo contratado para descobrir essas manipulações.

  • Fraude absoluta, que também pode ter implicações criminais ou envolver a segurança nacional. Ele cita um áudio deepfake do fim do ano passado em que uma transferência bancária é solicitada a uma empresa de energia do Reino Unido. O áudio era supostamente do CEO da empresa.

Como combater essas falsificações?

Então, como detectar esse conteúdo falso? Uma forma é analisar com muito cuidado as expressões faciais e ver como elas são únicas a cada indivíduo. Ele chama isso de “biometria sutil”, referindo-se ao fato de que essa não é uma ciência exata e não funciona da mesma forma que um DNA ou impressões digitais na identificação de uma pessoa.

Mas a simulação com imagens de celebridades pode ser mais convincente, pois existe uma enorme quantidade de vídeo disponíveis que podem ser usados para comparar esses "tiques" visuais. Por exemplo, tente dizer as palavras mãe, pai e irmão sem fechar a boca. “É impossível, a não ser que você seja um ventríloquo”, diz o professor.

Quando Alec Baldwin faz sua imitação de Trump, ele não apresenta esses maneirismos exatamente como o então presidente dos EUA fazia. Isso pode ser uma indicação de que estamos diante de uma falsificação. Ele mapeou vídeos de diferentes candidatos políticos em um projeto mais recente.

Muitos desafios à frente

O primeiro é que a tecnologia está evoluindo e melhorando rapidamente na criação de deepfakes mais convincentes. A velocidade de transmissão de conteúdo em redes sociais também está aumentando. O que demorava dias ou semanas, agora é percebido em poucas horas ou até minutos.

O público está polarizado. Isso significa que as pessoas estão dispostas a acreditar no pior sobre aqueles que têm pontos de vista diferentes dos seus ou de quem, por algum motivo, não gostem muito. Há também o aumento do que o professor chama de dividendo do mentiroso. Isso quer dizer que basta alguém dizer que algo é falso para neutralizar aquela informação, mesmo que se esteja diante de um fato verdadeiro. “Isso significa que nada mais precisa ser real”, explica Farid.

Plataformas de mídias sociais precisam ser proativas

“Não há uma única resposta mágica para resolver o apocalipse da desinformação”, afirma Farid. Em vez disso, as plataformas sociais devem ser mais responsáveis, e isso significa uma combinação de melhor rotulagem e foco nas regulamentações de alcance (não apenas a eliminação de conteúdo ofensivo ou falso), além da apresentação de diferentes pontos de vista sobre uma questão.


A Avast é líder global em segurança cibernética, protegendo centenas de milhões de usuários em todo o mundo. Saiba mais sobre os produtos que protegem sua vida digital em nosso site e receba todas as últimas notícias sobre como vencer as ameaças virtuais através do nosso Blog, no Facebook ou no Twitter.

* Original em inglês

--> -->