Gehen Sie direkt zum Inhalt der Seite Gehen Sie zur Hauptnavigation Gehen Sie zur Forschung

Künstliche Intelligenz ist eine Technologie, die in Sachen Cybersicherheit sowohl Chancen als auch Risiken birgt. Die Bewertung ihrer Vorteile und Grenzen ist der beste Weg, um Cyberkriminalität wirksam zu bekämpfen.

Die rasante Weiterentwicklung der künstlichen Intelligenz (KI) hat Auswirkungen auf die Cybersicherheit, die wir unbedingt verstehen müssen. Mit der Einführung von Large Language Models (LLM) wie ChatGPT und der Verbreitung von Open-Source-Modellen eröffnen sich neue Möglichkeiten, allerdings gleichermaßen für IT-Spezialist:innen wie Cyberkriminelle.

Ein Vorteil der LLM ist die Effizienzsteigerung, weil die KI riesige Datensätze analysieren kann, um mögliche Bedrohungen zu erkennen. Eine Aufgabe, die früher Stunden oder gar Tage in Anspruch genommen hätte, wird heute innerhalb weniger Minuten oder gar Sekunden erledigt.

Diese Technologie ist auch im Einsatz, um immer ausgefeiltere Analysen der Bedrohungsmodelle zu entwickeln, anormales Verhalten in Systemzugangsportalen zu erkennen, die Simulationen von Regelverstößen und Angriffen zu verbessern usw.

GenAI-Modelle (generative KI) können nach entsprechendem Training Korrekturen von unsicherem Code empfehlen, Schulungsmaterialien für die Sicherheitssystems generieren und Maßnahmen identifizieren, welche die Auswirkung der Bedrohungen verringern – also weit mehr als die bloße Erkennung von Schwachstellen.

Nicht zu vernachlässigende Risiken

Wie bei jeder revolutionären Technologie gibt es aber auch hier Nachteile. Das Standardarsenal zur Bekämpfung und Verhütung von Cyberangriffen reicht nicht mehr aus. Hacker:innen nutzen heutzutage generative Video- und Sprachtools, die immer raffiniertere Social Engineering-Attacken ermöglichen.

Menschen und KI müssen im Kampf gegen die Cyberkriminalität Hand in Hand arbeiten.

Eine weitere Hauptsorge liegt in der Fähigkeit von Amateur-Cyberkriminellen, die Schwachstellen der KI-Systeme zur Verhaltensmanipulation zu nutzen. Sind KI-Modelle nicht ordnungsgemäß gesichert, können sie durch Täuschung oder Manipulation zu unerwünschten Handlungen gebracht werden. Mit dieser Art von böswilligem Engineering können sich bestimmte Personen Zugang zu sensiblen Daten verschaffen, die zuvor im Rahmen von Anfragen anderer Personen in die LLM gelangt sind.

Außerdem hilft die Entwicklung generativer KI-Chatbots wie WormGPT, FraudGPT und DarkBERT manchen Nutzer:innen, auch ohne tiefergehende IT-Kenntnisse selbst Cyberangriffe durchzuführen. Dementsprechend prognostiziert Cybersecurity Ventures, dass die Cyberkriminalität bereits 2025 jährlich Schäden in Höhe von 10,5 Billionen Dollar verursachen wird (2015 waren es 3 Billionen). Das entspricht etwa einem Drittel der gesamten, derzeit im Umlauf befindlichen Euro-Menge.

 

Last but not least können diese neuen Tools zu nachlassender Wachsamkeit bei den Sicherheitsfachleuten führen, wenn sie sich allzu sehr auf die KI verlassen. Genau wie heutzutage im Matheunterricht das schriftliche Rechnen durch Taschenrechner ersetzt wurde, besteht das Risiko, dass Organisationen menschliches Urteilsvermögen durch KI-Systeme ersetzen.

Allerdings bringen Menschen ein Niveau an Situationsbewusstsein, Hintergrundwissen und Intuition mit, das Maschinen derzeit noch fehlt. Und anders als Taschenrechner liefern KI-Systeme bisweilen schlichtweg falsche Ergebnisse.

Robuste Gegenmaßnahmen und proaktiver Ansatz

Deshalb muss auf diese Bedrohungen mit robusten Gegenmaßnahmen reagiert werden. Dazu gehören die Überprüfung, Überarbeitung und Absicherung aktueller und zukünftiger Modelle sowie der zum Training verwendeten Daten, Investitionen in die Aus- und Weiterbildung von Cybersicherheits-Fachleuten über die Fähigkeiten und Grenzen der KI, um das richtige Gleichgewicht zwischen menschlichem Fachwissen und Automatisierung durch KI-Systeme zu gewährleisten, sowie die ständige Überwachung der KI-Modelle, um abweichendes Verhalten schnellstmöglich zu erkennen.

Cybersicherheits-Fachleute müssen stärker mit KI-Entwickler:innen zusammenarbeiten und Sicherheitsfragen gemeinsam angehen. Außerdem sollte untersucht werden, wie KI-Technologien in verschiedenen Bereichen zuverlässig und sicher eingesetzt werden können. Schließlich ist ein proaktiver, wissensbasierter Ansatz die beste Waffe im Kampf gegen KI-gestützte Cyberkriminalität.

21/05/2024

Julia Himmelsbach,

Team Lead Advanced Analytics & AI bei Axians ICT Austria