Dagens samhälle blir alltmer uppkopplat där fler och fler system interagerar med varandra via molnbaserade tjänster. Många av systemen är samhällsbärande och kan hantera allt från bilar, sjukvårdsutrustning, och betalningssystem till gruvbrytning, trafikledning och energiförsörjning. Skulle en hackare av någon anledning vilja göra skada på ett enskilt företag eller samhällstjänster är dessa system potentiella mål.
– Det är system som inte får går ner. De måste vara robusta och kunna motstå attacker. Men med integrationen av AI i systemen och mängden system som ska kommunicera med varandra finns det hundratusentals olika parametrar som en hackare kan utnyttja och attackera. Då måste man kunna identifiera var attacken sker och stoppa den innan skadan är gjord, säger Simin Nadjm-Tehrani, professor i datalogi vid Linköpings universitet.
Maskininlärning och resonemang
För att lyckas tänker forskarna använda AI för att övervaka säkerheten i systemen. Men det är lättare sagt än gjort. Så kallade djupinlärningsmodeller som drar slutsatser utifrån mönster i stora datamängder skulle i det här fallet inte vara ett ensamt alternativ enligt forskarna.
System som baseras på djupinlärning kan i dagsläget inte förklara vad som är grunden till att känna igen en attack. Dessutom kan en hackare försöka manipulera datan som modellen tränas på för att passera under radarn.
Därför måste djupinlärningsmodeller kombineras med så kallade resonerade modeller. Det forskarna framför allt tänker sig är en AI som kan skapa alla hundratusentals möjliga vägar som en angripare kan utnyttja och samtidigt ta fram en beredskapsplan för varje unik attack och utföra responsen autonomt. AI:n måste också kunna bevisa att responsen är säker att utföra och att den i sig själv inte skadar systemet. Oftast brukar denna kombination kallas för neurosymboliskt resonemang.
– Det går att likna vid en frisk människa som hela tiden är övervakad för alla tänkbara sjukdomar där man kan sätta in botemedel redan vid första tecken på symtom, säger Simin Nadjm-Tehrani.
Identifiera en verklig attack
Men det är viktigt att AI:n kan särskilja en attack från ett avvikande men ofarligt mönster. Med andra ord, systemet får inte ”skrika varg” varje gång något avvikande sker utan endast när det verkligen är en attack.
– I exemplet med människan kan vi jämföra det med att verkligen vara sjuk eller bara jetlaggad och trött. Det kräver olika typer av insatser. För att åtgärderna ska bli effektiva behöver varje respons på en attack dessutom gå att förklara att det är just här attacken sker. Det är det som skulle gör en direktåtgärd möjlig överhuvudtaget, säger Simin Nadjm-Tehrani.
Wasp-projekt
Projektet som går under benämningen Air2 (AI for Attack Identification, Response, and Recovery) koordineras av Linköpings universitet och ingår i satsningen på cybersäkerhet från Wallenberg AI, Autonomous Systems and Software Program (WASP). Projektgruppen leds av Simin Nadjm-Tehrani, professor vid Institutionen för datavetenskap vid LiU. Övriga projektdeltagare är Jendrik Seipp, docent, även han på Institutionen för datavetenskap vid LiU, Monowar Bhuyan, biträdande universitetslektor vid Umeå universitet och Rolf Stadler, professor vid KTH. Tillsammans ska de handleda sex unga forskare i projektet.