Si l’IA n’oublie rien, il faut lui apprendre à pardonner

Garry Kasparov 22 sept. 2019

On ne peut rien faire contre le fait que l’intelligence artificielle (IA) soit à l’écoute. Mais nous devons tous protéger la confidentialité de nos enfants.

« Il y a juste trop de choses auxquelles il faut penser chaque jour, trop de nouvelles choses à apprendre. Nouveaux styles, nouvelles informations, nouvelles technologies, nouvelle terminologie... Certains souvenirs se refusent à sombrer dans l'oubli, quels que soient le temps écoulé ou le sort que la vie nous ait réservé. Des souvenirs qui gardent toute leur intensité et restent en nous comme la clé de voûte de notre temple intérieur. » – Haruki Murakami, « Kafka sur le rivage »

Selon un récent rapport de Microsoft, les utilisateurs d’assistants numériques (comme Alexa d’Amazon ou Siri d’Apple) pensent que leur confort vaut la peine de mettre en risque leur confidentialité. 80 % se déclarent satisfaits de l'utilité de ces appareils et seulement la moitié d’entre eux (41 %) se préoccupe de la sécurité des données qui sont collectées. Comme je l’ai déjà indiqué précédemment, il s’agit d’un des compromis de l’ère numérique. Chacun d’entre nous doit peser le pour et le contre et il n’y a pas de bonne ou de mauvaise réponse. En revanche, il y a des décisions plus éclairées que d’autres. Et je soupçonne les sondés de ne pas avoir bien tenu compte des possibles utilisations des données qu’ils donnent à leurs assistants virtuels. Une fois que vos données sont introduites dans les algorithmes, la chaîne de propriété est rompue et vous perdez tout contrôle. C’est un fardeau injuste pour les enfants, dont la sécurité est déjà potentiellement exposée.

Même si vous faites confiance aux entreprises qui collectent vos données et aux algorithmes qui les analysent et les appliquent, vous courez toujours le risque que des pirates informatiques y accèdent. On peut comprendre qu’un groupe criminel de pirates informatiques veuille nos numéros de carte de crédit et nos informations d’identité. Mais il est plus difficile de concevoir le préjudice que peut causer l’exploitation de l’analyse de notre comportement par l'IA, de nos données biométriques et d’autres données sensibles. Les acteurs étatiques peuvent utiliser ces informations pour voler des secrets, interférer dans des élections, manipuler ou faire chanter des responsables officiels. Des états répressifs utilisent déjà des outils de piratage avancés pour cibler les dissidents et autres groupes.

Vos données personnelles alimentent les machines de l’IA

Dans l’immédiat, il y a d’autres raisons de se méfier des assistants numériques. Le modèle d’entreprise en place dépend de l'amélioration continue de leur précision et de leur intelligence. Les données qui entrent sont assimilées dans l’algorithme d’apprentissage de la machine, ce qui aide l’IA à éviter les erreurs du passé et à faire de meilleures prédictions. Il s’agit d'une boucle récurrente où le consommateur profite des avantages de la technologie tout en fournissant constamment les éléments nécessaires à son amélioration. À l'époque du rapport Microsoft cité ci-dessus, il a été révélé qu'Amazon avait une équipe d’employés dédiée à écouter les enregistrements vocaux effectués par Alexa; afin de former le logiciel à mieux fonctionner. Amazon a rétorqué qu’elle n’enregistrait qu’un « tout petit échantillon » d’enregistrements pour améliorer l’expérience du consommateur. Malheureusement, même si les utilisateurs refusent que leurs enregistrements soient réintroduits dans le système, ils peuvent toujours être soumis à ce processus de révision manuelle. Ce mois, Facebook a aussi reconnu qu’il payait des entrepreneurs pour écouter et retranscrire les conversations sur Messenger. Ensuite, Apple a confessé que certains de ses employés écoutaient des enregistrements de Siri, et d’après certaines informations, même lorsque les utilisateurs avaient des relations sexuelles. En d’autres termes, les informations que vous donnez à votre assistant numérique ne restent pas dans la boîte noire d’une IA. Elles peuvent aussi bien être réécoutées par des êtres humains. Et bien sûr, on peut retracer leurs origines.

Nous avons tendance à nous inquiéter davantage par le fait que des humains aient accès à nos données, mais qu'en est-il des algorithmes eux-mêmes ? Le problème ne se limite pas aux assistants numériques en particulier. Il est lié à des considérations éthiques beaucoup plus larges sur l'IA. Les informations que nous cédons aux machines intelligentes peuvent entrer sous forme de lots discrets, mais elles cessent alors d'être identifiables et sont englobées par le réseau. Ce n’est plus une question de droits et de réglementations donnant aux consommateurs la propriété de leurs données. Aujourd'hui, nos informations sont constamment incorporées dans des algorithmes complexes, qui, bien souvent, ne sont plus transparents, même pour les ingénieurs qui les ont construits.

Nos points de données individuels aident à renforcer et à étendre ces systèmes, mais nous en perdons la propriété pendant le processus. Dans le cas de l’IA, on ne peut pas changer d’avis et récupérer sa propriété numérique. Il convient de souligner que ces considérations ne sont pas purement philosophiques. Par exemple, lorsque l’Union européenne a adopté le Règlement général sur la protection des données (RGPD) l’année dernière, des problèmes très concrets d’application se sont immédiatement posés. Comment les régulateurs peuvent-ils appliquer le « droit à l’oubli » si les données en question ont déjà été incorporées dans des processus d’apprentissage de l’IA ?

Les faux pas des enfants devraient rester les leurs

Nous pourrions également réfléchir à ce que cela implique pour certains groupes, tels que la génération grandissant au milieu de cette technologie. Comme décrit dans un article incontournable de Wired, ils vont se retrouver dans une situation qu’aucune autre génération n’a connue. D'une part, de nombreux enregistrements numériques documentant leur vie depuis leur enfance les poursuivront à chaque entretien d'embauche et à chaque demande de prêt, sans parler des éventuels rendez-vous.

Un humain peut prendre le temps d’expliquer aux enfants et aux adolescents l'impact des données durables. Ce n’est pas le cas des assistants numériques et autres agents d'IA. Ceux-ci capturent les informations sans penser à ce genre de considérations. Les informations qu’ils collectent peuvent ensuite être connectées à des algorithmes qui dictent des résultats sociaux importants. Par exemple, si un élève est enregistré en train de tricher, cette vidéo peut le suivre et le pénaliser à l'âge adulte, provoquant un cercle vicieux de contre-performance et d'infractions supplémentaires. Notre objectif devrait être de construire une société qui permette aux enfants de faire des erreurs et d’en tirer des leçons. C'est pourtant l'inverse que nous faisons en confiant un tel pouvoir à l’IA : nous leur laissons un monde dans lequel les erreurs passées restent de façon indélébile dans un dossier personnel, limitant les chances de développement personnel. 

En abordant ces questions, nous devons, comme toujours, reconnaître les incroyables capacités de ces technologies tout en tenant compte des inconvénients qu’elles impliquent. Nous devrions poursuivre l’amélioration des systèmes d'IA pour mieux servir nos objectifs. Plus ces machines seront intelligentes et efficaces, plus elles nous seront précieuses dans la construction de sociétés dynamiques et prospères.

Les problèmes évoqués ci-dessus sont graves et nécessitent une attention urgente. Nous ne pourrons pas trouver les bonnes solutions si nous ne parvenons pas à garder nos valeurs fondamentales au centre du débat. Les réglementations doivent permettre de préserver un engagement en matière de protection de la vie privée, d'une façon adaptée à l'ère numérique. (Une bataille qui dure au moins depuis l’invention du téléphone, j’enquêterai davantage dans mon prochain article de blog.) L'énorme pouvoir de l'IA par rapport à un esprit humain, c'est qu’elle trouve des connexions dans des données, ce qui devrait inévitablement avoir des conséquences inattendues.

Outre la prise en compte des avancées technologiques, les solutions doivent désormais être plus globales, pour être à l’échelle de la technologie qu’elles traitent. Ces solutions doivent s'efforcer de préserver des droits, sans pour autant bloquer la continuité du progrès technique. En tant que père de jeunes enfants, je suis beaucoup plus curieux que craintif à l’idée que mes enfants grandissent durant cette époque révolutionnaire. Mais si nous voulons nous assurer qu'ils bénéficient des avantages des puissants outils numériques, nous devons reconnaître leurs conséquences sur le long terme, en particulier pour ceux qui sont trop jeunes pour donner leur avis.

--> -->