Nicolas Papernot de l’Université de Toronto voit la conférence CyberSec & AI Prague comme une opportunité de débattre sur les principes directeurs de l’intelligence artificielle.
Comme la communauté de recherche sur l’Intelligence artificielle (IA) se réunit le mois prochain pour la CyberSec & AI Prague, Nicolas Papernot réfléchit aux principes directeur de l’IA. « Je suis très enthousiasmé par cette conférence car c’est une opportunité pour la communauté de jeter les bases d'importantes approches de sécurité dans le domaine de l'apprentissage automatique et de l'IA », déclare le professeur adjoint en ingénierie à l'Université de Toronto et au Vector Institute.
« Je suis très enthousiasmé par cette conférence car c’est une opportunité pour la communauté de jeter les bases d'importantes approches de sécurité. »
Papernot, dont les domaines de recherche se situent au carrefour de la sécurité, de la confidentialité et de l'apprentissage automatique, estime qu'il est de plus en plus reconnu que l'apprentissage automatique expose de nouvelles vulnérabilités en matière de sécurité et de confidentialité dans les systèmes logiciels. La compréhension de la nature et de l’ampleur de ces vulnérabilités par la communauté technologique reste toutefois limitée. Alors que les chercheurs en cybersécurité explorent ce nouveau domaine, leur approche pourrait évoluer en une « course aux armements » équilibrant le risque et le coût de la protection. Poursuivre les pirates est devenu une lutte sans fin.
« En tant que communauté, il nous faut encore travailler sur une approche fondée davantage sur des principes », déclare-t-il. « Un bon mécanisme de sécurité en apprentissage automatique et en IA devrait présenter de nombreux aspects. Nous pouvons nous inspirer à partir de principes clés. »
En parlant de cette conférence tournée vers l'avenir, Papernot se montre plus conservateur en se tournant vers les principes de conception cités par Jerome Saltzer et Michael Schroeder dans leur article publié en 1975 « La protection de l'information dans les systèmes informatiques ». Ce texte présentait les valeurs désormais classiques des logiciels de cybersécurité, notamment une conception ouverte aussi simple que possible.
Il y a 10 ou 20 ans, des chercheurs en cybersécurité et en protection de la vie privée ont adopté bon nombre des suggestions de Saltzer et Schroeder et « nous en voyons maintenant l’intérêt. Actuellement, dans le domaine de la protection de la vie privée, nous en savons beaucoup plus sur la façon de nous défendre que sur la façon d’attaquer. Cette différence tient en grande partie au fait que la communauté de la protection de la vie privée a dépensé beaucoup d’énergie pour définir ce qu’elle devrait couvrir. En a résulté un cadre appelé "confidentialité différentielle", qui capture tous les attaquants indépendamment de ce qu'ils savent ou de ce à quoi ils peuvent accéder.
Les systèmes de construction qui adhèrent de manière proactive aux approches de conception clés permettent à la communauté de l'IA et de l'apprentissage automatique de ne pas s’abaisser à une course aux armements qui conférerait un avantage aux attaquants », déclare Papernot.
D’autres grands intervenants issus des mondes imbriqués de la cybersécurité et de l’IA se rendront dans la capitale tchèque le 25 octobre pour la CyberSec & AI Prague. Les participants représenteront le monde de la cybersécurité et les ingénieurs développeront probablement à la fois leur base de connaissances et leur réseaux professionnel. Les étudiants présenteront aussi leurs idées au cours d’une « session d’affichage »