Gå direkt till sidans innehåll Gå till huvudnavigeringen Gå till forskning

Den snabba utvecklingen av artificiell intelligens (AI) påverkar cybersäkerheten på ett sätt som vi måste förstå i grunden. Med införandet av stora språkmodeller (LLM) som ChatGPT och spridningen av modeller med öppen källkod öppnas nya möjligheter för både IT-specialister och cyberbrottslingar.

En av fördelarna med stora språkmodeller är effektivitetsvinsterna från AI-analys av massiva datamängder för att upptäcka potentiella hot. En uppgift som tidigare vanligtvis skulle ha tagit timmar eller till och med dagar att slutföra kan nu göras på några minuter eller till och med sekunder.

Denna teknik används också för att skapa allt mer sofistikerade tekniker för att analysera modeller för hot, för att känna igen avvikande beteende i portaler för systemåtkomst, samt för att göra förbättrade simuleringar av intrång och attacker med mera.

Människor och AI måste arbeta hand i hand för att bekämpa cyberbrottslighet.

Generativa AI-modeller kan, utöver att bara upptäcka sårbarheter, tränas att rekommendera korrigeringar för osäker kod, generera utbildningsmaterial för säkerhetsteam och identifiera åtgärder för att minska effekterna av hot.

 

Risker som inte får glömmas bort

Men all banbrytande teknik har också nackdelar. Den standardarsenal som används för att bekämpa och förhindra cyberattacker är inte längre tillräcklig. Hackare har nu tillgång till generativa video- och röstverktyg, vilket gör angrepp mer sofistikerade.

Ett annat stort problem är möjligheten för amatörcyberbrottslingar att nu kunna utnyttja sårbarheter i AI-system för att manipulera deras beteende. Om AI-modellerna inte är ordentligt säkrade kan de luras eller manipuleras, vilket leder till oönskade handlingar från samma modeller. Till exempel kan den här typen av skadlig teknik tillåta individer att skaffa känslig information som tidigare delats med språkmodeller i förfrågningar från andra personer.

Dessutom kan utvecklingen av AI-generativa chatbottar som WormGPT, FraudGPT och DarkBERT hjälpa vissa av sina användare att skapa sina egna cyberattacker utan att ha omfattande datorkunskaper. Cybersecurity Ventures förutspår att cyberbrottslighet kommer att kosta 10,5 biljoner dollar per år fram till 2025 (mot 3 biljoner dollar 2015). Det motsvarar ungefär en tredjedel av all euro som för närvarande är i omlopp.

Slutligen kan dessa nya verktyg genom att skapa ett alltför stort beroende av AI leda till att säkerhetspersonalen inte är på sin vakt i samma utsträckning som tidigare. Precis som miniräknaren nu har ersatt de beräkningar som förr gjordes manuellt i matteundervisningen finns det också en risk att organisationer ersätter det mänskliga omdömet med AI-system.

Ändå bidrar människor med en nivå av situationsmedvetenhet, kontextuell förståelse och intuition som maskinerna fortfarande saknar. Och till skillnad från miniräknaren kan dessa AI-system ge felaktig information.

 

Kraftfulla motåtgärder och proaktiva angreppssätt

Det är därför nödvändigt att vidta kraftfulla motåtgärder mot dessa hot. Detta omfattar att pröva, granska och säkra nuvarande och framtida modeller och de data de tränas på, liksom i att investera i att utbilda och träna cybersäkerhetspersonal om AI:s möjligheter och begränsningar för att säkerställa rätt balans mellan mänsklig expertis och AI-automatisering och säkerställa kontinuerlig övervakning av avvikande beteende i AI-modeller.

Det är önskvärt att cybersäkerhetsexperter samarbetar mer med AI-utvecklare för att hantera olika säkerhetsutmaningar. En tillförlitlig och säker användning av AI-teknik inom olika områden behöver också utredas. En proaktiv och välinformerad strategi kommer att vara det mest kraftfulla vapnet mot AI-baserad cyberbrottslighet.

21/05/2024

Julia Himmelsbach,

Team Lead Advanced Analytics & AI på Axians ICT Austria