Novinky z Avastu

AI vs. AI - fascinující budoucnost kybernetického zabezpečení

Rajarshi Gupta & Sadia Afroz, 23. srpna 2019

Jedním z témat, kterým se špičkoví experti na říjnové konferenci CyberSec & AI Prague budou zabývat, jsou nepřátelské algoritmy.

Kybernetické zabezpečení a umělá inteligence jsou dva rozsáhlé světy. Vzájemným překrýváním těchto světů se budou zabývat špičkoví odborníci na říjnové konferenci CyberSec & AI Prague, která je sponzorována Avastem a ČVUT. Výzkumníci a vývojáři budou na konferenci diskutovat o nejdůležitějších tématech v oblasti kybernetického zabezpečení, jako jsou hrozby pokročilé umělé inteligence.

Vývojáři zabezpečení učí naše klasifikátory AI tím, že jim dávají příklady neškodných a škodlivých souborů. Kybernetičtí zločinci mezitím učí své klasifikátory AI generovat škodlivé soubory, které vypadají neškodně. Tento závod ve zbrojení přináší velké výzvy pro uplatnění umělé inteligence v zabezpečení. Naši umělou inteligenci musíme učit, aby hledala zamaskované hrozby a neustále před nimi měla náskok. Jednou z cest, jak toho můžeme dosáhnout, je vytváření škodlivých vzorků, které učí naše klasifikátory pomocí nástrojů, jako jsou generativní nepřátelské sítě (GAN). Další cestou by mohlo být modelování „dobrých“ nebo „přípustných“ charakteristik, které mohou posloužit při ochraně jednoduchých zařízení – například internetu věcí. Problém tkví v tom, že protivník (útočník) má přístup ke stejné umělé inteligenci jako obránce.

Zabezpečení pomocí umělé inteligence se stále spoléhá na bezpečnost skrze utajení, což znamená, že umělou inteligenci je možné chránit před protivníkem jedině skrýváním. Protivník dokáže zmást AI program hned, jakmile získá přístup k příslušnému algoritmu. Tím se umělá inteligence liší od ostatních bezpečnostních prvků, jako je šifrování, které se spoléhají na složité algoritmy používající velká prvočísla.

Někteří uživatelé ví, že tyto strojově vygenerované bezpečnostní nástroje byly začleněny do našich produktů a hledají a blokují všechny druhy hrozeb, jako jsou phishing nebo e-mailový spam. Naše produkty díky tomu fungují podobně jako bezpečnostní pracovníci na letištích (možná o trochu efektivněji) a zároveň se pořád vyvíjejí a hledají neustále se zdokonalující hrozby. Bezpečnostní pracovníci na letištích se učí hledat hrozby mezi příslušníky určitých národů a v určitých typech zavazadel. Podobné typy varovných znamení jsou také patrné z binárního kódu zachyceného našimi bezpečnostními produkty; a my je neustále používáme ke zlepšování našich algoritmů.

Konference CyberSec & AI Prague se sice koná až 25. října, ale my se jí už nemůžeme dočkat. Koná se totiž v jednom z nejkrásnějších evropských měst, v Praze, a vystoupí na ní odborníci na kybernetické zabezpečení a umělou inteligenci. Akce je určená lidem, kteří se zaměřují na kybernetické zabezpečení. Vývojáři si na ní mohou rozšířit své znalosti a profesní kontakty. Zároveň zveme studenty, kteří na konferenci mohou prezentovat plakáty se svými vlastními nápady. Zvažujeme také, že budeme v omezené míře nabízet příspěvky na dopravu.

castle

Pražský hrad v noci. Fotografie od Rajarshiho Gupty z Avastu.

Z takového setkání těch největších odborníků si můžeme odnést důležité poznatky o tom, co od umělé inteligence a kybernetického zabezpečení, kde se všechno rychle mění, můžeme v budoucnu očekávat. Nepřátelská umělá inteligence zatím nemusí být moc rozšířená. Akademici však přesně před čtvrtstoletím popsali hrozbu, která se tehdy zdála být nepatrná a dokonce nepravděpodobná. Tou hrozbou byl ransomware. A zatímco mu trvalo přes 20 let, než dosáhl svého největšího rozšíření, dnes se mu dostávají do spárů různé organizace i města po celém světě.

Dnešní nové hrozby už ke svému rozšíření 20 let potřebovat nebudou. Právě teď už někde na nich nepřátelské AI algoritmy pracují. V říjnu v Praze probereme, co dělat, abychom si před nimi udrželi náskok. Přidejte se k nám.

Rajarshi Gupta je vedoucím oddělení pro umělou inteligenci v Avastu. Sadia Afroz pracuje jako analytička umělé inteligence v Avastu a na International Computer Science Institute v Berkeley.