Garry Karparov examine l'intersection entre la vie privée, la transparence, la sécurité, les droits des Hommes, et les institutions à l'ère de l'intelligence artificielle.
Récemment, j'ai eu l'honneur de faire partie des lauréats de l'édition 2017 des Champions of Freedom Awards de l'Electronic Privacy Information Center (Centre d'information sur la confidentialité électronique, EPIC).
L'expert en matière de technologie et de confidentialité Bruce Schneier comptait parmi les présentateurs et les autres lauréats, l'avocate Carrie Goldberg, Ron Rivest et la juge Patricia Wald, réalisent tous d'importants travaux en faveur de la protection de la confidentialité en ligne et hors ligne à une époque où l'on a constamment l'impression d'être surveillé.
Le président et directeur exécutif d'EPIC, Marc Rotenberg, a fait une déclaration marquante à propos du rôle vital et souvent méconnu de la transparence dans une démocratie saine.
Les utilisateurs sont eux aussi inquiets (et c'est un euphémisme). Le terme de « confidentialité » possède actuellement 58 400 000 mentions sur Google Actualités, ce qui met en évidence le fait que le terme possède des significations différentes pour des personnes et des cadres variés.
Comme il a été très bien compris au sein d'EPIC, le problème ne réside pas uniquement dans la confidentialité de l'utilisateur final et le partage excessif sur les réseaux sociaux. Il concerne également ce qui se passe aux plus hauts niveaux des gouvernements et des entreprises capables de surveiller nos actions.
C'est la raison pour laquelle la confidentialité et la transparence sont deux aspects indissociables de la sécurité.
Les entreprises ont besoin d'en savoir plus sur nous afin de nous offrir les services que nous voulons. Les organismes gouvernementaux ont besoin d'exercer un certain contrôle en vue de fournir des services de sécurité essentiels.
La question sempiternelle réside dans la manière d'équilibrer ces besoins avec le droit du citoyen à protéger sa confidentialité et à contrôler ses propres données tandis que nous en produisons toujours plus chaque jour. La transparence est nécessaire pour établir des limites et la responsabilité, pour les franchir.
Ce processus contradictoire fait partie de l'équilibre des pouvoirs sur lequel se basent les républiques démocratiques, en particulier les États-Unis. L'idée consiste à faire usage de la pression et des conflits afin de révéler et corriger les défauts du système ainsi que de mettre en lumière et réaliser des progrès pour le bien commun.
Il est important d'en percevoir le contraste avec la nature de la surveillance et de la confidentialité dans les pays non libres. La méthode, la raison et la mission sous-jacentes à la collecte des données et à la violation de la confidentialité ne peuvent être ignorées.
Dans les régimes autoritaires, la confidentialité n'appartient qu'aux dirigeants et non au peuple. Le comportement du régime et ses citoyens les plus puissants sont protégés du peuple. La collecte de données est utilisée pour la répression et la persécution de citoyens innocents. De vraies personnes sont en danger physique réel lorsque la protection de la confidentialité est déjouée dans une autocratie.
Il ne s'agit pas d'un usage légal ou d'une mesure pour protéger les personnes des pirates ou des terroristes.
Notre souhait de protéger la confidentialité est indissociable de notre inquiétude pour les fondements éthiques de nos institutions. Si nous sommes convaincus que les motivations des autorités sont moralement saines et qu'elles sont exécutées dans notre intérêt et dans celui de la société, nous serons plus enclins à céder un certain degré de confidentialité.
Vous pouvez appeler cela « la surveillance des surveillants » : ceux qui sont responsables de l'établissement de protocoles de surveillance doivent eux-mêmes être surveillés. Leurs justifications doivent faire l'objet d'un examen et une chaîne de responsabilité doit être établie.
Dans l'idéal, nous souhaitons un système qui permette la collecte des informations nécessaires à des fins économiques, sociologiques et de sécurité entre autres mais décourage la collecte arbitraire qui ne s'articule pas autour d'un besoin spécifique et bien défini. Les gouvernements et les entreprises doivent faire preuve de transparence dans l'expression de leurs objectifs et de leurs stratégies et les consommateurs ont le devoir de mettre en doute tout élément nébuleux.
Bien entendu, je suis toujours intéressé par la manière dont l'IA entre en jeu dans ce contexte. Nous sommes alarmés par les processus de prises de décisions internes d'organes cachés au grand public. Comment pouvons-nous être certains que les motivations des grandes sociétés, qui décident de la quantité d'informations utilisateur à divulguer aux gouvernements étrangers, ne se soucient que de servir au mieux les intérêts des utilisateurs ?
Si nous sommes préoccupés par ce point, à juste titre, nous devrions réfléchir sérieusement à la manière dont nous déléguerons des tâches similaires à l'IA à l'avenir. Les algorithmes sont de plus en plus utilisés pour prendre des décisions ayant des conséquences importantes pour les individus, les entreprises et la société.
Étant donné le rythme effréné auquel progresse le domaine du learning-machine, nous nous retrouverons souvent à devoir évaluer les résultats de processus incompréhensibles pour des êtres humains. Un réseau neuronal qui est parvenu à un certain résultat est passé par une série d'étapes qui n'a pas été imaginée par ses concepteurs humains mais qu'il a codé lui-même.
Ces tendances nous emportent vers un futur de résultats imprévisibles et donc de chaînes de responsabilités encore plus floues.
Sans surprise, la transparence et la responsabilité algorithmiques constituent un domaine en développement dans la loi sur la confidentialité. EPIC a lancé une campagne sur ce thème. Si nous ne pouvons pas suivre les processus d'une IA et vérifier la manière dont elle a atteint telle décision, nous devons au moins assurer la transparence de tous les éléments du processus contrôlés par des humains.
Comme je l'ai avancé ci-dessus, nous devons exiger une justification claire et morale aux institutions humaines responsables de la surveillance étendue. Il en va de même ici : nous devons exiger que l'IA soit programmée en fonction des normes de transparence et d'éthique les plus rigoureuses qui soient.
Un cadre doit également être mis en place pour juger de la responsabilité, humaine bien entendu. Quelle place pour la responsabilité lorsqu'un grille-pain connecté via l'Internet des objets rejoint un botnet qui perturbe une partie d'Internet ? Le fabricant est-il responsable d'avoir réalisé un produit non sécurisé ?
Concernant le traitement des fausses informations et d'autres symptômes du dérapage de notre puissante technologie, nous devons mieux attribuer les sources et les responsabilités aux personnes au lieu d'accuser la technologie.
Cependant, les normes gouvernementales et industrielles peuvent faire une grande différence. Après la cérémonie de remise des prix d'EPIC, le 5 juin, j'ai eu une brève conversation avec le pionnier du chiffrement Whit Diffie. Il était consterné de m'entendre dire qu'à notre époque, les gens devraient savoir qu'il ne faut pas cliquer sur les pièces jointes d'un email suspect.
Il m'a fait remarquer que le plus ridicule était surtout que les utilisateurs aient l'option de faire une chose aussi potentiellement destructrice, et il a raison. Les gratte-ciels modernes sont dotés de fenêtres qui peuvent uniquement être entrouvertes, pour prévenir les accidents et les suicides.
Vous ne pourrez jamais empêcher l'intégralité des dommages auto-infligés par les personnes mais il existe clairement de nombreuses actions qui peuvent être mises en place pour améliorer nos structures numériques de manière à nous protéger plus efficacement contre nous-mêmes.
Le lien essentiel se trouve dans les institutions, qu'elles soient publiques ou privées, et dans le fait qu'elles comportent ou non suffisamment de normes de transparence et de responsabilité pour que l'on puisse leur confier notre confidentialité ainsi que d'autres éléments de sécurité.
Qu'il s'agisse d'un gouvernement prenant des décisions concernant des programmes de surveillance nationaux ou d'une entreprise déterminant la manière dont ses produits collecteront des informations sur les utilisateurs, si les valeurs et les normes régissant les actions des humains (ou des machines) sont suffisamment fermes, nous pouvons être optimistes sur nos chances d'atteindre des résultats positifs, même si cela n'arrive qu'après des années d'essais et d'erreurs.
Si les institutions font défaut, nous nous rendons vulnérables aux menaces de malfaiteurs ou de technologies neutres pouvant nous nuire, que ce soit par accident ou par intention malveillante.
Pour être solides, les institutions doivent bénéficier d'une continuité dans le temps qui inclut les changements de dirigeants et de partis. Dans le paysage hyper-partisan d'aujourd'hui, ce dernier point peut s'avérer difficile à intégrer mais je tire une certaine fierté dans le fait d'avoir dénoncé ardemment l'hypocrisie résultant de l'extrémisme des deux côtés du spectre politique.
Dans mon discours de remerciement à EPIC, j'ai souligné que si la surveillance et les ordres exécutifs ne vous dérangent pas lorsque vous aimez le président mais que vous les rejetez lorsque vous ne l'aimez pas, c'est que vous faites partie du problème !
L'établissement d'un système qui fonctionne pour tous ses membres nécessite que tous les camps réalisent des compromis. Un cadre complet doté de lois de transparence issues du bon sens et d'un solide équilibre des pouvoirs des autorités de contrôle ne verra jamais le jour si l'on se contente de montrer les autres du doigt avant de se réfugier dans son coin. Il finira dans une impasse, avec des fragments de confidentialité totale ou au contraire de surveillance débridée.
Entre-temps, tandis que nous nous efforçons d'établir les institutions qui donneront forme à nos expériences et interactions personnelles dans le monde du numérique, nous devons tous, en tant qu'utilisateurs individuels, nous montrer responsables au sein d'un système imparfait. Le monde en ligne est loin d'être civilisé.
Il ressemble davantage au vieux Far West américain, où les lois sont mal établies et font souvent l'objet d'abus. Il n'existe pas de mesures de protection idéales, alors chaque consommateur doit faire preuve de prudence dans le partage de ses informations et les mesures prises pour les protéger.
Chacun d'entre nous doit continuer à exiger les lois et les protections nécessaires pour la sécurité collective, tout en acceptant la réalité actuelle telle qu'elle est et en restant vigilant.
Les axes concernant la responsabilité sont encore très vagues, les entreprises sont donc peu poussées à mettre des protections en place. Et bien que ce soit très populaire de diaboliser le « grand méchant gouvernement » qui met le pays sous surveillance et de dénoncer la collecte de données toujours plus étendue réalisée par les plus grandes entreprises du monde, ces institutions géantes sont en réalité les plus responsables que nous ayons.
Les grandes entreprises reconnues qui possèdent une réputation à défendre sont forcées de se préoccuper de l'opinion publique et de la satisfaction des utilisateurs.
De la même manière, beaucoup de gouvernements ne se préoccupent tout simplement pas de leur image lorsqu'ils violent la confidentialité de leurs citoyens alors que d'autres, qui se soucient de leur positionnement dans le monde, y prendront garde.
Protégez-vous autant que possible à l'aide des outils les plus réputés disponibles mais ne cessez jamais d'exiger un changement institutionnel général qui conduira à un monde numérique plus sûr, juste et transparent pour tous et ce, nous l'espérons, sans avoir tiré un seul coup de feu.
Merci d’utiliser Avast Antivirus et de nous recommander à vos amis et votre famille.Pour toutes les dernières nouvelles, n’oubliez pas de nous suivre sur Facebook, Twitter et Google+.