Ir directamente al contenido de la página Ir a la navegación principal ir a investigar

La inteligencia artificial es una tecnología que presenta tanto oportunidades como riesgos para el ámbito de la ciberseguridad. Evaluar sus ventajas y sus límites es la mejor manera de luchar eficazmente contra la ciberdelincuencia.

La rápida evolución de la IA impacta en la ciberseguridad de un modo que es absolutamente necesario entender. Con la introducción de los grandes modelos de lenguaje (Large Language Models, LLM), como ChatGPT, y la proliferación de modelos open source o de código abierto, se abren nuevas oportunidades a los especialistas en informática… pero también a los ciberdelincuentes.

Una de las ventajas de los LLM consiste en la mejora de la eficiencia asociada al análisis mediante IA de conjuntos de datos masivos para detectar potenciales amenazas. Una tarea que tradicionalmente habría llevado horas, o incluso días, puede realizarse ahora en minutos o incluso segundos.

Esta tecnología también se utiliza para crear técnicas cada vez más sofisticadas de análisis de modelos de amenazas, de reconocimiento de comportamientos anómalos en portales de acceso al sistema, de simulaciones mejoradas de infracciones y ataques, etc.

Los modelos GenAI (IA generativa) pueden entrenarse para recomendar parches de seguridad para un código no protegido, generar material de formación para los equipos de seguridad e identificar medidas para reducir el impacto de las amenazas, más allá de la simple detección de vulnerabilidades.

Riesgos que no hay que pasar por alto

De todos modos, toda tecnología disruptiva tiene también sus inconvenientes. El arsenal estándar que se utiliza para combatir y prevenir los ciberataques ya no es suficiente. Los hackers tienen ahora acceso a herramientas generativas de vídeo y voz, lo que aumenta la sofisticación de los ataques de ingeniería social.

Las personas y la IA deben trabajar de la mano para combatir la ciberdelincuencia.

Otra preocupación importante es la capacidad de los ciberdelincuentes aficionados de explotar las vulnerabilidades de los sistemas de IA para manipular su comportamiento. Si los modelos de IA no están correctamente protegidos, se puede engañarlos o manipularlos, dando lugar a acciones indeseables por parte de estos mismos modelos. Este tipo de ingeniería maliciosa puede llevar a algunas personas a adquirir, por ejemplo, datos sensibles previamente compartidos con los LLM a través de peticiones de otras personas.

Además, el desarrollo de chatbots de IA generativa como WormGPT, FraudGPT o DarkBERT pueden ayudar a algunos de sus usuarios a crear sus propios ciberataques sin necesidad de contar con grandes conocimientos informáticos. Según las previsiones de Cybersecurity Ventures, la ciberdelincuencia costará 10,5  billones de dólares al año de aquí a 2025 (frente a los 3 billones de 2015), cifra que equivale aproximadamente a un tercio de todos los euros actualmente en circulación.

Por último, al crear una dependencia demasiado grande de la IA, estas nuevas herramientas pueden conducir a la relajación de los profesionales de la seguridad. Al igual que la calculadora ha sustituido a los cálculos escritos en las clases de matemáticas, existe también el riesgo de que las organizaciones sustituyan el juicio humano por sistemas de IA.

Y sin embargo, las personas aportan un nivel de conciencia de la situación, de comprensión del contexto y de intuición que las máquinas aún no tienen. Y a diferencia de la calculadora, estos sistemas de IA pueden proporcionar información equivocada.

Contramedidas enérgicas y enfoque proactivo

Por tanto, frente a estas amenazas, hay que aplicar contramedidas enérgicas, lo que implica examinar, revisar y proteger los modelos actuales y futuros, así como los datos con los que se entrenan; invertir en la educación y formación de los profesionales de la ciberseguridad respecto a las capacidades y los límites de la IA para garantizar el justo equilibrio entre los conocimientos humanos y la automatización de la IA, y garantizar la supervisión continuada de los comportamientos desviados en los modelos de IA.

Los expertos en ciberseguridad deberían colaborar más con los desarrolladores de IA para abordar los retos en materia de seguridad. También debería estudiarse el despliegue fiable y seguro de las tecnologías de la IA en varios ámbitos. Un enfoque proactivo y bien informado será el arma más poderosa contra la ciberdelincuencia basada en la IA.

21/05/2024

Julia Himmelsbach,

Team Lead Advanced Analytics & AI en Axians ICT Austria