Otázky a odpovědi s Mariou Rigaki, jednou z přednášejících na CyberSec & AI Prague, a jejím týmem z ČVUT

Avast Blog 15 Říj 2019

Maria a její tým budou probírat členění malwaru jako problém kontinuálního učení.

5d9ee5464a6e6c7391098f86_photo - Maria Rigaki

Maria Rigaki je doktorandka Oddělení počítačových věd na Českém vysokém učení technickém v Praze. Na říjnové konferenci CyberSec & AI Prague se zaměří především na výzkum, který provádí se svými kolegy. Těmi jsou Elnaz Babayeva, která vystudovala obor umělé inteligence, a Sebastian Garcia, který na ČVUT působí jako pomocný profesor.

O čem bude Vaše přednáška na CyberSec & AI Prague?

Náš blok nese název “Nezapomínej na ně: členění malwaru jako problém kontinuálního učení”.

Proč je členění malwaru tolik důležité?

Dělení malwaru je pro antivirovou společnost naprosto zásadní. Výzkumníkům a analytikům totiž umožňuje najít typy malwaru, které patří do stejných skupin a vykazují stejné chování. K této problematice se dá přistoupit několika způsoby, nicméně zvyšující se množství škodlivých souborů nás nutí přiklánět se zejména k modelům strojového učení, které zpracovávají data efektivněji. Jedním z problémů strojového učení je ovšem fakt, že s postupem času a s příchodem nových informací degradují, což komplikuje snahu efektivně řešit nové i staré úkoly zároveň. Podobně jsou na tom i bezpečnostní aplikace založené na strojovém učení, u těch je navíc k dispozici méně dat o tom, jak, kdy a proč se toto děje.

Můžete nám nabídnout menší ukázku toho, co se chystáte prezentovat?

Podobně, jako lidé, se i algoritmy průběžného učení snaží postupně učit nové věci z představených dat, aniž by zapomněly to, co se naučily už dříve.

Naše práce odpoví na otázku, zda je průběžné učení vhodným přístupem pro kyberbezpečnostní problémy, a zda tato metoda umožní programům, aby se naučily rozpoznávat nové skupiny malwaru, aniž by zapomněly ty staré. Také se soustředíme na to, jak se oblast průběžného učení zlepšuje, pokud jde o rychlost a úložiště.

S novými datasety, širokou škálou srovnávaných modelů a nově navrženým modelem naše práce zjišťuje, jak používat strojové učení tak, aby se programy průběžně učily co nejefektivněji rozeznávat nové skupiny malwaru.

Můžete nám, jakožto studentka ČVUT, přiblížit akademický pohled na oblast kyberbezpečnosti a umělé inteligence?

Kyberbezpečnost a umělá inteligence jsou v současnosti hlavní oblastí zájmu. Kolem umělé inteligence se šíří velké nadšení, mnoho studentů si tuto oblast vybírá jako své hlavní zaměření. Společnosti se více soustředí na inženýrství umělé inteligence a provádějí mnoho výzkumů. Výrazný růst tak můžeme vidět i v kariérních příležitostech.

Jak myslíte, že se se téma kyberbezpečnosti a umělé inteligence promítá do dění v Evropě?

V posledních deseti letech jsme zaznamenali nárůst kyberzločinů, z toho důvodu se společnost také více zajímá o kyberbezpečnost. Tento zvýšený zájem můžeme pozorovat ve firmách, v typech prováděných výzkumů a ve změně evropských zákonů a regulací.

Využití strojového učení a umělé inteligence v bezpečnosti je trendem poslední tří až pěti let, a to zejména ve Spojených státech. Evropa je však rychle dohání.

Jaká jsou Vaše přání pro budoucnost strojového učení, umělé inteligence a kyberbezpečnosti?

Často slýcháme o mnoha firmách, kterým jsou ukradena nebo jim unikají data. Doufáme, že v budoucnosti uvidíme větší využití algoritmů pro ochranu soukromí. To nám umožní používat strojové učení, aniž by mělo přímý přístup k našim informacím, například prostřednictvím lokalizovaných modelů nebo zašifrovaných dat.

A co umělá inteligence?

Mnoho lidí se umělé inteligence obává, ale já si myslím, že má opravdu velký potenciál společnosti prospívat a usnadnit nám život. Díky umělé inteligenci se budeme moct zabývat složitějšími a kreativnějšími úkoly, aniž bychom se museli starat o všední práci, protože ta bude zautomatizovaná.

Máte i Vy nějaké obavy o naši budoucnost?

Algoritmům strojového učení chybí lidský element. Lidé často nerozumí tomu, že i algoritmy mohou mít zabudované předsudky. Mají pocit, že když jsou jejich základem data, tak jde o nějaký druh matematické pravdy. Ale algoritmy mohou odrážet předsudky toho, kdo je programoval. Bojím se, že lidé těmto algoritmům budou až příliš důvěřovat, což povede k rozhodnutím, která budou mít velmi negativní dopad na společnost i životy jednotlivců. 

Maria Rigaki je doktorandka Oddělení počítačových věd na Českém vysokém učení technickém. Maria pracuje na aplikacích pro strojové učení a umělou inteligenci v oblasti kyberbezpečnosti. Za sebou má mnoho let zkušeností jako vývojářka softwaru a systémová architektka.

--> -->