Lorsque les principaux experts se réuniront à la conférence CyberSec & AI Prague en octobre, les algorithmes contradictoires seront au premier plan.
La cybersécurité et l'intelligence artificielle sont deux domaines en expansion. Elles se chevauchent dans un domaine fascinant qui attirera les meilleurs experts à Prague en octobre pour la conférence CyberSec & AI, sponsorisée par Avast et l’Université technique tchèque. La conférence permettra aux chercheurs et aux ingénieurs de partager des idées sur des sujets de pointe, y compris la menace à la cybersécurité posée par les progrès de l'IA.
Les défenseurs entraînent nos classificateurs d'IA à être plus robustes en leur fournissant de nombreux exemples de fichiers de qualité et malveillants. Les cybercriminels, quant à eux, sont en train d’entraîner leurs classificateurs d’IA à générer des fichiers malveillants qui semblent inoffensifs. Cette course aux armements rend l'IA dans la sécurité particulièrement difficile. Nous devons apprendre à l'IA à rechercher ces menaces déguisées et à toujours garder une longueur d'avance. Une façon de le faire est de générer des exemples contradictoires afin d'enseigner à nos classificateurs en utilisant des approches telles que les réseaux accusatoires génératifs (GAN). Une autre solution consisterait à modéliser les caractéristiques « bonnes » ou « acceptables », ce qui pourrait éventuellement permettre de protéger des dispositifs simples tels que l'IoT. Le problème est que l'adversaire a accès à la même intelligence artificielle que les défenseurs.
La sécurité de l'IA dépend toujours de la sécurité par l'obscurité, ce qui signifie que le seul moyen de protéger l'IA est de le cacher à l'adversaire. Un adversaire peut tromper un programme d'IA dès qu'il a accès à l'algorithme. Cela diffère des autres aspects de la sécurité, tels que le chiffrement, où la sécurité repose sur la complexité de la factorisation de grands nombres premiers.
Peu d'utilisateurs peuvent se rendre compte que ces outils de cybersécurité générés par machine ont été intégrés à notre gamme de produits, recherchant et bloquant toutes sortes de menaces, telles que le phishing et le spam par courrier électronique . De cette manière, nos produits fonctionnent comme des agents de contrôle de la sécurité dans les aéroports du monde entier (peut-être un peu plus efficacement), mais avec une technologie en constante évolution à la recherche de menaces en constante amélioration. Les inspecteurs d’aéroport apprennent peut-être qu’une nouvelle nation ou un certain type de bagage représente une nouvelle menace. Ces types de signes indicateurs apparaissent également dans le code binaire capturé par nos produits de cybersécurité, et nous utilisons ces indices pour améliorer nos algorithmes à tout moment.
Nos conférenciers à CyberSec & AI Prague viennent de ce secteur très sélectif de la cybersécurité et de l'intelligence artificielle, et c'est l'une des raisons pour lesquelles nous attendons avec impatience la conférence du 25 octobre à Prague, l'une des plus belles villes d'Europe. Les participants représenteront le monde de la cybersécurité et les ingénieurs développeront probablement à la fois leur base de connaissances et leurs réseaux professionnels. Les étudiants sont également invités à soumettre leurs propres idées sur une affiche - et les subventions pour soutenir les voyages sont envisagées sur une base limitée.
Château de Prague la nuit. Photo de Rajarshi Gupta, Avast.
Surtout dans les mondes imbriqués de l'intelligence artificielle et de la cybersécurité, où tout évolue si rapidement, un rassemblement de cerveaux de pointe peut nous donner des informations importantes sur l'avenir. L'IA conflictuelle n'est peut-être pas encore généralisée. Mais il y a un quart de siècle, les universitaires ont défini une menace qui semblait éloignée, voire improbable. Cette menace était un ransomware et, bien qu'il ait fallu plus de 20 ans pour que son impact soit optimal, aujourd'hui, des villes et des organisations du monde entier sont prises entre ses mains.
Il ne faudra pas 20 ans pour que les menaces émergentes d'aujourd'hui se développent. Quelque part en ce moment, des algorithmes d'IA contradictoires y travaillent. Nous nous réunirons en octobre à Prague pour garder une longueur d’avance. Rejoignez-nous !
Rajarshi Gupta est le responsable de l'IA chez Avast. Sadia Afroz est chercheuse en intelligence artificielle à Avast et à l'informatique internationale de Berkeley.