V prvním článku jsme se zabývali IoT v roce 2019 a ve druhém mobilními hrozbami. V posledním dílu naší trojdílné série o předpovědích v oblasti kybernetického zabezpečení pro rok 2019 se dozvíte, jak umělá inteligence (AI) v příštím roce ovlivní vývoj hrozeb.
Žádná z oblastí zabezpečení není zahalená tolika tajemstvími jako umělá inteligence. V poslední době se čím dál častěji stáváme svědky boje škodlivých algoritmů umělé inteligence s těmi bezpečnostními. Avast významně investoval do vývoje algoritmů umělé inteligence, které proti těm škodlivým bojují, a poznatky nabyté tímto vývojem využívá při zevrubném výzkumu oblastí umělé inteligence, které na své řádné probádání zatím čekají. Jednu z těchto oblastí jsme pracovně nazvali „útoky DeepAttack“.
Přichází věk útoků DeepAttack
Útoky DeepAttack definujeme jako škodlivý obsah, který byl automaticky vygenerován algoritmy umělé inteligence, a očekáváme, že četnost jejich výskytu v budoucnu poroste.
V roce 2018 jsme se setkali s mnoha případy, kdy výzkumníci pomocí speciálně vytvořených algoritmů umělé inteligence dokázali ošálit lidské smysly. Mezi ně patří třeba falešné video s prezidentem Obamou, které vytvořil Buzzfeed a na kterém Obama velmi přesvědčivě pronáší falešný proslov. Tato taktika se běžně nazývá „deepfake“ a pomocí umělé inteligence se snaží lidi obalamutit. Už jsme se také setkali se škodlivými algoritmy umělé inteligence, které dokázaly ošálit i ty nejchytřejší algoritmy na detekci předmětů. Algoritmus byl například ošálen tak, že si myslel, že značka stop je ve skutečnosti značkou rychlostního omezení. „Fake news“ vygenerované pomocí umělé inteligence se nám zatím v běžném životě naštěstí vyhýbají.
Útoky DeepAttack se dokážou ve velkém měřítku projevovat jako falešné webové adresy nebo stránky. Lze je používat ke generování malwarového kódu a falešných síťových přenosů v botnetech. V roce 2019 očekáváme, že se útoky DeepAttack budou objevovat častěji a budou se snažit ošálit lidský zrak i chytré bezpečnostní systémy. Zároveň pracujeme na speciálních detekčních algoritmech útoků DeepAttack, abychom je dokázali identifikovat a blokovat dřív, než se významně rozšíří.
Chytré útoky na domácí sítě
Útočníci nyní mají k dispozici sofistikované algoritmy, pomocí nichž dokážou identifikovat domácnosti s určitými charakteristikami (např. spousta zařízení Apple, nedostatečné zabezpečení atd.) a cílit na ně své útoky. Dokážou automatizovat další fázi cíleného útoku na vhodné cílové zařízení (např. vhodné k těžbě kryptoměn) – třeba pomocí nástrojů na prolamování hesel, které se přizpůsobují specifickým typům zařízení. Jejich škodlivý řetězec lze tedy kompletně zautomatizovat.
Umělou inteligencí proti klonovému phishingu
Předpokládáme, že umělá inteligence bude hrát velkou roli v eliminaci tzv. klonového phishingu. Jde o útoky pomocí téměř identické repliky legitimní zprávy, která se snaží svůj cíl přesvědčit, že je skutečná. E-mail je odeslán z adresy podobající se skutečnému odesílateli a text zprávy vypadá stejně jako předchozí zpráva. Jediným rozdílem je, že příloha nebo odkaz ve zprávě byly zaměněny za něco škodlivého.
Předpokládáme, že umělá inteligence se stane docela účinným nástrojem na detekci krátkodobě existujících podvodných stránek, které se k těmto útokům vážou. Umělá inteligence je rychlejší než tradiční algoritmy, a to hned ve dvou ohledech. Dokáže přesněji identifikovat nové a podezřelé domény, a to pomocí rychlých algoritmů, jež vizuálně porovnávají falešné webové stránky s těmi skutečnými. Také se postupem času učí a sleduje trendy a pokrok ve vývoji malwaru.
Cílené spear-phishingové útoky si bohužel i nadále udrží své místo na výsluní, protože útočníci investují čas a peníze do sbírání specifických informací o svém cíli (například vytvářejí e-maily, které se tváří jako ze školy vašeho dítěte, od ředitele vaší firmy atd.). Pokud je však útočník vysoce motivovaný, často si nějakou skulinu najít dokáže, takže jej musí zastavit další detekční technologie, jako jsou behaviorální štíty.
Konec textových captcha
Po více než deset let se k ověřování totožnosti na webu používalo přepisování textů z obrázků. Jednalo se o nejúčinnější způsob, jak prokázat, že nejste robot.
Dnes už to ale neplatí.
Firma Vicarious jako první koncem roku 2017 dokázala, že i ty nejsložitější testy captcha jsou prolomitelné pomocí algoritmů. V důsledku toho došlo k rozšíření behaviorální analýzy, která identifikuje aktivitu robotů na webových stránkách tím, že generuje skóre rizikovosti interakce. Uživatelé díky ní již nemusí ověřovat svoji existenci opisováním zdeformovaného textu z obrázků. Dokonce i reCAPTCHA, největší poskytovatel testů captcha, od textových captcha ustupuje. Tato technologie byla hackery překonána, takže v roce 2019 můžeme očekávat, že ji přestanou používat minimálně ty webové stránky, které myslí na bezpečnost svých uživatelů.
Používání umělé inteligence bude v příštích letech čím dál běžnější. Věříme, že si najde spoustu užitečných uplatnění a že bude zneužívána k nekalým účelům co nejméně. V průběhu roku 2019 vás na tomto blogu budeme informovat o dalších událostech v jejím vývoji. Chcete-li si udělat kompletnější obrázek o tom, co bude vaši kybernetickou bezpečnost v roce 2019 ohrožovat, stáhněte a přečtěte si úplné předpovědi Avastu pro rok 2019.