La semaine dernière, le professeur Hany Farid (Université de Californie à Berkeley) est intervenu lors de la conférence virtuelle CyberSec&AI Connected d’Avast. L’événement a rassemblé des universitaires et des experts en technologie du monde entier pour aborder la confidentialité et la cybersécurité de l’intelligence artificielle (IA).
Farid a fait beaucoup de recherches sur l’utilisation et l’évolution des vidéos « deepfake » (hypertrucage). Au cours de cette intrigante session, il a expliqué comment les deepfakes vont gagner en réalisme et ce que les chercheurs en sécurité devront faire pour les détecter.
Pour commencer, il nous a présenté l’évolution des deepfakes : à partir d’un simple logiciel de retouche photo est née toute une industrie dont l’objectif est de « polluer l’écosystème des médias vidéo ». Ces dernières années, la création de deepfakes a fait des progrès, avec l’altération d’images plus sophistiquée et l’utilisation d’outils basés sur l’IA. Farid a illustré son propos en fusionnant des séquences vidéo des stars hollywoodiennes Jennifer Lawrence et Steve Buscemi : Lawrence conserve les mêmes vêtements, le même corps et les mêmes cheveux mais son visage est remplacé par celui de Buscemi. Certes, personne n’est dupe, mais ce n’en est pas moins une démonstration effrayante du fonctionnement de la technologie.
Farid distingue quatre grandes catégories de deepfakes :
-
Le pornographique non consensuel (cas le plus fréquent) : il s’agit d’insérer le visage d’une femme dans une vidéo pornographique et de la diffuser sur Internet.
-
Les campagnes de désinformation : elles sont conçues pour tromper le public et « jeter de l’huile sur le feu ».
-
La falsification de preuves juridiques : par exemple présenter des fautes policières qui n’ont jamais été commises. Dans le cadre de son activité non universitaire, Farid est souvent engagé pour dénicher ce type de manipulations.
-
La fraude pure et simple, qui peut parfois entraîner des affaires de criminalité ou de sécurité nationale. Pour illustrer ce point, il cite un deepfake audio mettant en scène la demande de virement bancaire d’une société d’énergie britannique. Cette demande était censée provenir du PDG de la société.
Comment lutter contre les deepfake ?
Comment détecter ces faux éléments ? On peut s’appuyer sur la « biométrie douce », une science moins exacte que l’ADN ou les empreintes digitales puisqu’il s’agit d’analyser les tics et expressions faciales qui nous différencient les uns des autres. Pour les célébrités souvent filmées, le niveau de prévisibilité est plus élevé car on dispose déjà de nombreuses séquences vidéo pour comparer ces « tics » visuels. Par exemple, essayez de dire les mots « mère », « frère » et « parent » sans fermer la bouche. « C’est impossible, à moins d'être ventriloque », explique Farid. Quand Alec Baldwin imite Trump, il ne réplique pas exactement ses tics, ce qui peut « trahir » le deepfake. Dans le cadre d'un précédent projet, il a cartographié les différentes vidéos des candidats politiques, et ce graphique souligne la présence d’un groupe de deepfake sur Obama :
Il y a plusieurs défis à relever. Premièrement, la technologie évolue rapidement, les deepfakes sont donc de plus en plus convaincants. Deuxièmement, la vitesse de transmission sur les réseaux sociaux ne fait qu’augmenter : un élément peut se faire remarquer en seulement quelques heures (voire minutes) alors qu’il lui aurait auparavant fallu des jours ou des semaines. Troisièmement, le public est désormais polarisé, c’est-à-dire qu’il est disposé à croire le pire s’il s’agit de personnes qu’il n’aime pas ou qui ont d’autres opinions idéologiques. Quatrièmement, on assiste au phénomène qu'il qualifie de dividende du menteur : pour neutraliser quelque chose, il suffit de nier sa véracité, même s’il s’agit d’un fait avéré. « Rien n’a plus besoin d’être réel », déclare Farid.
Les réseaux sociaux doivent agir de façon proactive
« Il n’y a pas d’issue magique à l’apocalypse de la désinformation », affirme Farid. C’est aux plateformes sociales de se montrer plus responsables, en utilisant un meilleur étiquetage, en se concentrant sur les règles de portée (au lieu de se contenter de supprimer le contenu inapproprié ou faux), et en présentant des points de vue alternatifs.
Le professeur Farid est intervenu lors de CyberSec&AI Connected, une conférence annuelle co-organisée par Avast sur l’IA, l’apprentissage machine et la cybersécurité. Pour en savoir plus sur l’événement et accéder aux présentations des intervenants, comme celle de Garry Kasparov (champion du monde d’échecs et ambassadeur de la sécurité d’Avast), rendez-vous sur le site web de l’événement.