Quando especialistas em cibersegurança se reunirem na CyberSec & IA, em outubro, na cidade de Praga, um dos tópicos de destaque será o dos algoritmos adversários.
Cibersegurança e inteligência artificial (IA) são dois campos em expansão. Eles se complementam como áreas fascinantes e, em outubro, serão tema de discussão entre grandes especialistas na cidade de Praga, onde será realizada a conferência CyberSec & AI*. Patrocinado pela Avast e pela Universidade Técnica Tcheca, o evento vai permitir que pesquisadores e engenheiros compartilhem ideias e tópicos de última geração, incluindo a ameaça à cibersegurança da IA.
Defensores (especialistas em defesa) treinam nossos classificadores (conjunto de instruções que inclui informações sobre um indivíduo, gerando uma previsão sobre ele) de IA para serem mais robustos. Para isso, eles os alimentam com muitos exemplos de arquivos benignos e maliciosos. Enquanto isso, cibercriminosos estão ocupados treinando seus próprios classificadores de IA para gerarem arquivos maliciosos que pareçam inofensivos.
Essa verdadeira corrida armamentista torna a IA em segurança particularmente desafiadora. Devemos treinar nossa IA para olhar essas ameaças disfarçadas para estar sempre um passo à frente delas. Uma forma de fazer isso é por meio da geração de exemplos contraditórios para ensinar nossos classificadores a usarem abordagens como redes antagônicas geradoras (GAN, da sigla em inglês). Uma outra forma seria modelar características “boas” ou aceitáveis, o que poderia tornar possível a proteção de dispositivos simples da Internet das Coisas (IoT, da sigla em inglês). O problema é que o adversário tem acesso à mesma IA que os defensores.
A segurança da IA depende da segurança através da obscuridade*, o que significa que a única forma de proteger a IA é a escondendo dos seus adversários. Um inimigo pode enganar um programa de IA assim que tiver acesso* a esse algorítimo. Isso é diferente de outras facetas da segurança, como a criptografia, onde a segurança depende da complexidade de se construir números primos gigantescos.
Poucos usuários podem perceber que essas ferramentas de cibersegurança geradas por máquinas estão integradas à nossa linha de produtos, procurando e bloqueando todos os tipos de ameaças, como phishing e spam de e-mail. Nesse sentido, nossos produtos trabalham como sistemas de segurança de aeroportos (talvez até com um pouco mais de eficiência), com uma tecnologia que evolui constantemente e que procura por ameaças que, por sua vez, também não param de evoluir. Talvez os sistemas de segurança de aeroportos possam descobrir uma nova ameaça vindo de uma determinada nação ou que use um determinado tipo de bagagem. Esses tipos de sinais suspeitos também aparecem em códigos binários capturados por nossos produtos de cibersegurança. Assim, usamos essas pistas para constantemente melhorar nossos algoritmos.
Nossos palestrantes na CyberSec & AI Praga* vem dessa seleta área de mundos complementares de cibersegurança e inteligência artificial. E essa é uma razão pela qual estamos esperando ansiosamente pela conferência, que será realizada no dia 25 de outubro, em Praga, uma das cidades mais bonitas da Europa. Os participantes vão representar o mundo da cibersegurança, e os engenheiros vão provavelmente desenvolver sua base de conhecimento e redes profissionais. Estudantes também estão convidados a submeterem suas ideias em um workshop. Eles também podem concorrer a uma bolsa para ajudá-los com as despesas da viagem.
O castelo de Praga à noite. Foto: Rajarshi Gupta, da Avast.
Especialmente nos mundos complementares da IA e da cibersegurança, onde tudo muda muito rapidamente, uma reunião de mentes brilhantes pode nos dar ideias importantes sobre o que está por vir. IA adversárias podem ainda não ser algo comum. Mas um quarto de século atrás, acadêmicos mapearam uma ameaça que parecia remota, ou mesmo improvável. Aquela ameaça era um ransomware*, e mesmo que tenha demorado mais de 20 anos para que o seu impacto fosse sentido, hoje, cidades e organizações ao redor do mundo estão enfrentando esse problema.
Não vai demorar 20 anos para que as ameaças emergentes de hoje se desenvolvam. Em algum lugar do mundo, neste exato momento, algoritmos de IA adversários estão trabalhando nisso. Em outubro, na cidade de Praga, vamos nos reunir para dar um passo à frente. Junte-se a nós.
Rajarshi Gupta é chefe de IA da Avast. Sadia Afroz é pesquisadora de IA da Avast e do Instituto Internacional de Ciências da Computação, em Berkeley.
* Original em inglês.