A inteligência artificial é uma tecnologia que apresenta tanto oportunidades quanto riscos para a cibersegurança. Avaliar suas vantagens e limitações é a melhor maneira de combater eficazmente o cibercrime.
A rápida evolução da inteligência artificial (IA) afeta a cibersegurança de uma maneira que precisamos entender. Com a introdução de Grandes modelos de linguagem (Large Language Models, LLMs), como o ChatGPT, e a proliferação de modelos open source, estão surgindo novas oportunidades para os especialistas em TI… e para os cibercriminosos.
Uma das vantagens dos LLMs está nos ganhos de eficiência resultando da análise pela IA de conjuntos maciços de dados para detectar possíveis ameaças. Uma tarefa que tradicionalmente levaria horas ou até dias agora pode ser feita em minutos, ou até segundos.
Essa tecnologia também serve para criar técnicas cada vez mais sofisticadas para analisar padrões de ameaças, reconhecer comportamentos anômalos em portais de acesso a sistemas, aprimorar simulações de violações e ataques, etc.
Os modelos de GenAI (IA generativa) podem ser treinados para recomendar correções para códigos inseguros, gerar material de treinamento para equipes de segurança e identificar medidas para reduzir o impacto das ameaças, além da simples detecção de vulnerabilidades.
Riscos que não devem ser ignorados
No entanto, toda tecnologia de ruptura também tem suas desvantagens. O arsenal padrão usado para combater e prevenir ciberataques não é mais suficiente. Os hackers agora têm acesso a ferramentas generativas de vídeo e voz, aumentando a sofisticação dos ataques de engenharia social.
Os seres humanos e a IA devem trabalhar lado a lado para combater a cibercriminalidade.
Outra grande preocupação é a capacidade dos cibercriminosos amadores de explorar vulnerabilidades nos sistemas de IA para manipular seu comportamento. Se não estiverem devidamente protegidos, os modelos de IA podem ser enganados ou manipulados, levando a ações indesejáveis por parte desses mesmos modelos. Esse tipo de engenharia maliciosa pode levar certas pessoas a adquirir, por exemplo, dados confidenciais previamente compartilhados com LLMs por meio de solicitações de outras pessoas.
Além disso, o desenvolvimento de chatbots generativos de IA, como o WormGPT, o FraudGPT e o DarkBERT, pode ajudar alguns de seus usuários a criar seus próprios ciberataques sem ter um conhecimento profundo de informática. A Cybersecurity Ventures prevê que os cibercrimes custarão 10. 500 bilhões de dólares por ano até 2025 (3.000 bilhões em 2015). Isso equivale a cerca de um terço de todos os euros atualmente em circulação.
Por fim, ao criar uma dependência excessiva com a IA, essas novas ferramentas podem levar a um relaxamento por parte dos profissionais de segurança. Assim como a calculadora substituiu os cálculos escritos nas aulas de matemática, também existe o risco de as organizações substituírem o juízo humano por sistemas de IA.
No entanto, os seres humanos trazem um nível de consciência situacional, compreensão contextual e intuição que as máquinas ainda não têm. E, ao contrário da calculadora, esses sistemas de IA podem fornecer informações errôneas.
Contramedidas robustas e uma abordagem proativa
Portanto, é necessário implementar contramedidas robustas contra essas ameaças. Isso significa analisar, revisar e proteger os modelos atuais e futuros e os dados com os quais eles são treinados, investir na educação e no treinamento de profissionais de cibersegurança sobre as capacidades e as limitações da IA para garantir o equilíbrio certo entre o conhecimento humano e a automação da IA, e garantir o monitoramento contínuo de comportamentos desviantes nos modelos de IA.
Os especialistas em cibersegurança devem colaborar mais com os desenvolvedores de IA para enfrentar os desafios de segurança. Seria útil realizar uma pesquisa sobre a implantação confiável e segura de tecnologias de IA em vários domínios. Uma abordagem proativa e bem informada será a arma mais poderosa contra a cibercriminalidade baseada na IA.
21/05/2024