Прогноз на 2019 год. Часть 3: мир искусственного интеллекта

Заключительная часть прогнозов в области кибербезопасности на 2019 год. Рассуждаем об искусственном интеллекте.

В первой части серии прогнозов мы говорили об опасности Интернета вещей. Следующую часть мы посвятили мобильным угрозам. В заключительной статье мы рассмотрим влияние искусственного интеллекта (ИИ) на кибербезопасность в 2019 году.

Ни один аспект кибербезопасности не таит в себе больше тайн, чем ИИ. Мы все чаще наблюдаем противостояние алгоритмов ИИ, работающего на обеспечение киберзащиты, и систем ИИ, разрабатываемых злоумышленниками. Компания Avast инвестировала значительные средства в разработку алгоритмов искусственного интеллекта для противостояния зловредным системам ИИ. Во время изучения нас заинтересовал класс атак, известный как «глубокие атаки» (DeepAttacks).

Эпоха «глубоких атак» близко

Под «глубокими атаками» (DeepAttacks) мы определяем вредоносный контент, который автоматически генерируют алгоритмы ИИ. Доля этого класса атак будет расти.

В 2018 году мы видели много примеров того, как для обмана людей использовались алгоритмы искусственного интеллекта . В качестве примера можно привести созданное Buzzfeed видео, в котором президент Обама убедительно произносит поддельную речь. Такое использование искусственного интеллекта для обмана людей называется «глубокой подделкой» (deepfake).

Мы также видели примеры того, как ИИ обманывал даже самые умные алгоритмы обнаружения объектов. Например, обманным путем заставлял алгоритм думать, что знак «СТОП» — это знак ограничения скорости в 45 миль в час. 

«Глубокие атаки» могут проявляться масштабно в виде фальшивых URL-адресов или веб-страниц HTML. Их могут использовать для генерации поддельного сетевого трафика в работе ботнетов. В 2019 году мы прогнозируем более частое использование DeepAttacks в попытках обмануть как людей, так и умные средства защиты. Мы также улучшаем специальные технологии для обнаружения «глубоких атак», чтобы идентифицировать и блокировать их до того, как они примут серьезные масштабы.

Атаки на домашние сети

В настоящее время киберпреступники располагают сложными алгоритмами, с помощью которых можно выявить и атаковать домовладельцев с определенными признаками (например, с большим количеством устройств Apple, не менее 10 уязвимыми устройствами и пр.).

Затем они могут автоматизировать следующую стадию целевой атаки на нужное устройство (например, которое уязвимо для майнинга криптовалют), используя взломщики паролей, которые адаптируются к конкретным типам устройств. Таким образом, вся вредоносная цепочка может стать автоматизированной.

ИИ против клонированного фишинга

Мы прогнозируем, что ИИ сыграет большую роль в прекращении практики, известной как клонированный фишинг, когда злоумышленник создает почти идентичную копию подлинного сообщения, чтобы обманным путем заставить жертву думать, что она настоящая. Письмо отправляется с адреса, напоминающего адрес подлинного отправителя, и сообщение выглядит так же, как и предыдущее сообщение. Разница лишь в том, что вложение или ссылка в сообщении заменяются вредоносными.

Мы полагаем, что ИИ станет достаточно эффективным в обнаружении фишинговых сайтов-однодневок, связанных с этими атаками. ИИ может действовать быстрее, чем традиционные алгоритмы, в двух направлениях: точно определяя новые и подозрительные домены и используя быстрые алгоритмы визуального обнаружения для сопоставления макетов фишинговых сайтов и выявления поддельных. Кроме того, ИИ учится, следит за тенденциями и отслеживает развитие вредоносных программ.

К сожалению, методы целевого фишинга продолжат доказывать свою эффективность. Злоумышленники тратят время и деньги на сбор информации о конкретной цели, например на написание писем якобы от учебного заведения вашего ребенка или генерального директора вашей компании. В этих, как и во многих других случаях, решительно настроенный злоумышленник часто находит вход, и остановить угрозу могут только такие технологии обнаружения, как поведенческий анализ.

Конец текстовых CAPTCHA

Более десяти лет люди доказывали, что они не роботы, распознавая набор отображаемых букв. Когда-то это был самый эффективный инструмент. С тех пор ситуация изменилась. 

Работа, проделанная компанией Vicarious в конце 2017 года, показала, что алгоритмы могут взламывать даже сложные CAPTCHA. Это привело к внедрению поведенческого анализа для определения активности ботов на сайтах — на основе подозрительности взаимодействия создается оценка риска. Больше не нужно вводить искаженный текст в поле, чтобы доказать, что вы не робот. Даже reCAPTCHA, крупнейший поставщик проверок CAPTCHA, отказывается от текстовых проверок. Хакеры освоили технологию, так что в 2019 году таким проверкам пришел конец, по крайней мере, на всех сайтах, которые заботятся о безопасности пользователей.

ИИ будет и дальше проникать в нашу жизнь. И хотя мы верим, что искусственный интеллект может принести гораздо больше пользы, чем зла, польза инструментов определяется теми, кто ими владеет. Следите за нашим блогом в 2019 году, чтобы быть в курсе развития ИИ.

Также вы можете следить за нашими новостями в социальных сетях ВКонтактеОдноклассникиFacebook и Twitter

--> -->