Previsões 2019: O mundo da inteligência artificial | Avast

Prepare-se para 2019 com estas previsões sobre inteligência artificial dos especialistas da Avast.

Na nossa primeira postagem dessa série, vimos como deveria evoluir a Internet das Coisas. Depois, nos concentramos nas previsões de ameaças para mobiles para este ano. Agora, na última parte da nossa série previsões de cibersegurança para 2019, vamos nos debruçar sobre como a inteligência artificial (IA) irá moldar as novas ameaças.

Nenhuma área de segurança tem mais mistério e glamour do que da IA. Estamos vendo cada vez mais algoritmos do mal (Adversarial IA) lutando contra os do bem. A Avast tem investido fortemente no desenvolvimento de algoritmos de IA e o nosso aprendizado nesse campo nos levou a pesquisar coisas que sabemos que existem, mas que ainda não são totalmente conhecidas ou compreendidas. Uma dessas novas áreas de interesse são os ataques conhecidos como DeepAttacks.

A Era dos DeepAttacks está chegando

Nós definimos “DeepAttacks” como o “conteúdo malicioso gerado automaticamente por algoritmos de inteligência artificial”, e são um tipo de ataque que prevemos ver com mais frequência.

Em 2018, vimos muitos exemplos do uso de algoritmos de IA para enganar as pessoas. Entre eles estavam o falso vídeo de Obama criado pelo Buzzfeed e onde o ex-presidente americano é visto dizendo textos falsos de uma forma muito convincente. Isso é comumente chamado de “deepfake” e mostra o uso da Adversarial IA para enganar as pessoas. Também vimos exemplos de como enganar até mesmo os mais inteligentes algoritmos de detecção de objeto, como naquele caso onde um algoritmo é levado a pensar que um sinal de trânsito para parar fosse entendido como um sinal de limite de velocidade. Ainda bem que exemplos reais “notícias falsas” geradas por IA (ainda) são raros.

Ao mesmo tempo, os DeepAttacks podem se manifestar na forma de falsos URLs ou páginas HTML. Eles podem ser usados para gerar falso tráfego em redes zumbis. Em 2019, prevemos ver DeepAttacks implantados mais comumente na tentativa de enganar os olhos humanos e as defesas inteligentes. Também estamos trabalhando duro para aprimorar detecções especiais para os DeepAttacks, a fim de identifica-los e bloqueá-los antes que atinjam maiores proporções.

Ataques inteligentes às redes domésticas

Agora, os cibercriminosos têm à sua disposição algoritmos sofisticados que podem identificar e atingir as redes domésticas com perfis específicos (por exemplo, as que tenham vários dispositivos da Apple, ou aquelas com pelo menos 10 dispositivos vulneráveis, etc.). Em seguida, eles podem automatizar a próxima etapa do ataque, que é concentrada em um tipo de dispositivo específico (por exemplo, um que possa ser usado para criptomineração), utilizando ferramentas para quebrar as senhas de determinado tipo de dispositivos. Assim, toda a cadeia maliciosa pode ser automatizada.

IA contra phishing de clonagem

Prevemos que a IA vai desempenhar um papel decisivo para acabar com a prática conhecida como phishing de clonagem, onde um cibercriminoso cria uma réplica quase idêntica de um email legítimo e leva a vítima a pensar que é verdadeiro. O email é enviado a partir de um endereço parecido com o do remetente legítimo, e o corpo da mensagem é o mesmo de uma das mensagens anteriores. A única diferença é que o anexo ou o link da mensagem foi trocado por outro malicioso.

Prevemos que a IA irá se tornar bastante eficaz na detecção de sites de curta duração associados a esses ataques de phishing de clonagem. A IA pode se mover mais rápido do que os algoritmos tradicionais de duas maneiras: primeiro identificando com precisão os domínios que são novos e suspeitos, e, depois, através da utilização de algoritmos rápidos de detecção visual dos domínios que coincidem com o layout de sites de phishing, identificando os que são falsos. Além disso, a IA aprende ao longo do tempo, seguindo as tendências, e monitora os avanços dos malwares.

Infelizmente, as técnicas de spearphishing (ou phishing direcionado) continuarão a ser bem-sucedidas à medida que os cibercriminosos deverão gastar mais tempo e dinheiro para coletar informações específicas dos seus alvos, tais como a elaboração de emails que pretendem ser do colégio do seu filho, do CEO da sua empresa, etc. Nesses casos, como em muitos outros, criminosos altamente motivados encontram maneiras de invadir e cabe a outras tecnologias de detecção comportamental a tarefa de bloquear esse tipo de ameaças.

O fim dos captchas de texto

Por mais de uma década, nós tivemos de provar que somos seres humanos, lendo caixas de texto e transcrevendo-as corretamente. Esta foi uma ferramenta eficaz na hora de provar que não éramos um robô na internet. Isso acabou.

O primeiro trabalho feito por Vicarious em 2017 e mostrou que os captchas – mesmo os mais complexos – podem ser quebrados por algoritmos. Isso levou à introdução da análise comportamental para identificar atividade de robôs em sites, gerando uma escala de risco sobre quão suspeita é uma interação, acabando com a necessidade de desafiar os usuários a digitar um texto distorcido e provar assim que é uma pessoa e não um robô. Mesmo o reCAPTCHA, o maior fornecedor de captchas, está deixando os desafios baseados em texto. A tecnologia foi assimilada pelos cibercriminosos e, como consequência, vamos ver o fim dos desafios de texto, pelo menos em todos os sites que levarem segurança a sério em 2019.

A IA vai continuar crescendo e se tornar mais comum ao longo deste ano. Fique por perto do nosso blog em 2019 para se manter em dia com a evolução da IA. Para ter um quadro mais completo dos riscos de segurança cibernética em 2019, baixe e leia o relatório completo das previsões da Avast para 2019 (em inglês).

--> -->