Actualités Avast

Q&A avec Maria Rigaki et son équipe de l'Université technique de Prague

Avast Blog, 10 octobre 2019

Maria et son équipe parlent de la classification des logiciels malveillants comme un problème d’apprentissage continu.

Après notre entretien avec Jan Bim, nous rencontrons Maria Rigaki et son équipe de l'Université technique de Prague (CTU) pour un autre entretien particulier.

Maria Rigaki, étudiante au doctorat au département d'informatique de l'Université technique de Prague (CTU), fera une présentation à CyberSec & AI Prague en octobre. L'exposé de Maria portera sur les recherches menées avec ses collègues Elnaz Babayeva (diplômé en intelligence artificielle) et Sebastian Garcia (professeur adjoint à la CTU).

Quel est le sujet de votre conférence à CyberSec & AI Prague ?

Notre exposé s'intitule « Ne m'oubliez pas : la classification des logiciels malveillants en tant que problème d'apprentissage continu ». 

Pourquoi la classification des logiciels malveillants est-elle importante ?

La classification des logiciels malveillants est un aspect important pour une société d'antivirus, car elle permet aux chercheurs et aux analystes qui travaillent dessus de rechercher ceux appartenant à la même famille et présentant le même comportement. Il existe plusieurs approches pour s'attaquer au problème, mais l'augmentation du nombre de fichiers malveillants oblige la communauté à rechercher des modèles d'apprentissage automatique qui utilisent les données plus efficacement. Cependant, l’un des problèmes des modèles d’apprentissage automatique est qu’ils se dégradent avec le temps avec l’introduction de nouvelles données, ce qui rend difficile la résolution efficace de tâches nouvelles et anciennes. Ceci est également vrai pour les applications de sécurité d'apprentissage automatique, mais nous avons moins d'informations sur comment cela se produit, quand et pourquoi.

Pouvez-vous nous donner un aperçu des recherches que vous allez présenter ? 

Inspirés par la façon dont les humains apprennent, les algorithmes d'apprentissage continu tentent d'apprendre progressivement de nouvelles tâches à partir d'ensembles de données en constante évolution, sans oublier les tâches apprises dans le passé. 

Notre travail permettra de déterminer si l'apprentissage continu est une approche appropriée pour résoudre les problèmes de jeu de données liés à la sécurité. Cette méthode permet aux programmes d'apprendre efficacement les nouvelles familles de programmes malveillants sans oublier les anciennes. Nous nous concentrerons également sur les améliorations apportées dans le domaine de l’apprentissage continu en termes de rapidité et de stockage.  

Avec un nouvel ensemble de données, une large comparaison de modèles et un nouveau modèle proposé, notre travail explore la manière d'utiliser l'apprentissage automatique pour apprendre continuellement de nouvelles familles de programmes malveillants au potentiel maximal.

En tant qu'étudiant à la CTU, pouvez-vous nous éclairer sur les domaines de la cybersécurité et de l'intelligence artificielle (IA) ? 

A l'heure actuelle, la cybersécurité et l'IA sont des domaines d'intérêt majeurs. Il y a beaucoup d'engouement autour de l'IA, avec beaucoup d'étudiants qui se spécialisent dedans. Les entreprises se concentrent davantage sur l'ingénierie de l'IA, et de nombreuses recherches sont effectuées au sein de ces entreprises. Nous constatons donc une croissance considérable des opportunités de carrière. 

Comment diriez-vous que la cybersécurité et l'IA se répandent dans toute l'Europe? 

Les activités de cybercriminalité se sont développées au cours des dix dernières années, ce qui explique la croissance soutenue de la cybersécurité. Nous pouvons voir cette croissance dans les entreprises, dans le type de recherche en cours et dans l'évolution des lois et des réglementations de l'UE. 

De manière générale, l'utilisation de l'apprentissage automatique et des techniques d'intelligence artificielle en matière de sécurité ont commencé à se développer ces trois à cinq dernières années, en particulier aux États-Unis. L’Europe a néanmoins apidement rattrapé son retard ces dernières années. 

Des espoirs pour l'avenir de l'apprentissage automatique, de l'IA et de la cybersécurité ? 

Nous entendons parler de nombreuses entreprises souffrant de fuites de données et de violations. Nous espérons voir davantage d'utilisations d'algorithmes préservant la confidentialité dans le futur. Cela nous permettra d'utiliser l'apprentissage automatique sans accès direct à nos données personnelles, par exemple à l'aide de modèles localisés ou même de données chiffrées.

Qu'en est-il avec l'IA en particulier ? 

Je sais que de nombreuses personnes s'inquiètent pour l'avenir de l'IA, mais je pense vraiment que l'intelligence artificielle a la capacité de bénéficier à la société et de nous faciliter la vie. Nous pourrons nous concentrer davantage sur des tâches plus difficiles et plus créatives, plutôt que sur un travail banal qui peut être automatisé.

Des préoccupations pour notre avenir ? 

Avec les algorithmes d'apprentissage automatique, l'élément humain fait défaut. Les gens ne comprennent pas que les algorithmes peuvent avoir un biais intégré. Ils supposent que, comme ils sont basés sur des données, c'est une sorte de vérité mathématique. Mais les algorithmes peuvent refléter le biais de ceux qui les ont programmés. Je crains que les gens n’accordent une confiance excessive à ces algorithmes, ce qui leur permet de prendre des décisions qui pourraient avoir un impact très négatif sur la société et la vie des individus. 


Maria Rigaki est doctorante au département d'informatique de l'Université technique de Prague (CTU) et travaille sur des applications pour l'apprentissage automatique et l'IA dans le domaine de la cybersécurité. Elle possède de nombreuses années d'expérience en tant que développeuse de logiciels et architecte de systèmes. 

Elnaz Babayeva est un jeune diplômé de la CTU spécialisé dans l'IA et travaille actuellement en tant que chercheur en apprentissage automatique dans le groupe de l'IA et de la sécurité à Avast. Pendant son temps libre, elle aime enseigner aux enfants des sujets liés aux STEM et ainsi que programmation avec wITches.cz et les bénévoles du fonds Women in Tech. 

Sebastian Garcia est directeur du laboratoire Stratosphere, professeur adjoint à l'Université CTU et cofondateur du fonds Women in Tech. Il aime tout particulièrement la sécurité des réseaux et l'apprentissage de la détection de programmes malveillants.