Foto John Sandlund www.johnsandlund.se
Presidenter som gör uttalanden de aldrig sagt i verkligheten, och kända skådespelares ansikten på andra människors kroppar – det är två av många exempel på deepfake-videor. De är skapade med AI-metoder, som på liknande sätt kan generera röster och mänskliga ansikten som aldrig existerat i verkligheten, eller varför inte konstverk som ser ut att vara målade av Picasso eller Rembrandt? Tekniken bakom, ”generative adversarial networks” eller GAN, kan också användas på sätt som är till nytta för forskningen.Claes Lundström.
– Metoden som oftast används för syntetisering, GAN, är en av de hetaste grejerna inom AI-forskning nu. Bilderna som skapas ser realistiska ut, så den här metoden kan också generera verklighetstrogna medicinska bilder som aldrig funnits, säger Claes Lundström, adjungerad professor på LiU vid Institutionen för teknik och naturvetenskap, ITN, och verksam vid Center for Medical Image Science and Visualization, CMIV.
Claes Lundström leder den nationella satsningen AIDA, Analytic Imaging Diagnostic Arena, som CMIV står värd för. AIDA är en av parterna i ett projekt kring att utveckla ett SCAPIS-datalabb. Projektet koordineras från Göteborgs universitet och fick nyligen pengar från VINNOVA. SCAPIS-studien är en mycket stor, svensk studie om hjärt- och lungsjukdom, där 30 000 personer i medelåldern har fått mycket grundliga hälsoundersökningar av hjärta, kärl och lungor. I datalabbet vill forskarna skapa syntetiserade bilddata utifrån riktiga undersökningsbilder från SCAPIS. Dessa bilder ska inte kunna kopplas till riktiga personer utan kan betraktas som anonyma, samtidigt som de innehåller verklighetstrogna medicinska data. Tanken är att de syntetiserade undersökningsbilderna ska göras tillgängliga för fler forskare och användas till att utveckla AI-lösningar.
– SCAPIS är ett fantastiskt projekt. Det finns mängder av data av hög kvalitet insamlade och de ansvariga på SCAPIS vill att det insamlade materialet ska komma forskare till nytta på bred front. Riktigt bra AI-forskning kräver stora mängder bra träningsdata, och vi vill sänka trösklarna så att det blir lättare att dela material på ett etiskt och lagligt sätt, säger Claes Lundström.
Där kommer AIDA in i bilden. Inom AIDA finns redan en datahub där forskare, vårdgivare och företag tillsammans samlar stora anonymiserade dataset med träningsdata för AI inom medicinsk bilddiagnostik. Där har man tagit fram riktlinjer för hur den sortens data ska hanteras, och ska nu bidra med expertis kring hur den tekniska plattformen för SCAPIS-datalabbet ska designas.
AI tävlar mot varandra
I projektet har AIDA också ansvar för metodutveckling för syntetisering av anonymiserade data. Forskare i Jonas Ungers forskargrupp vid ITN har arbetat länge med syntetisering av data, som trafiksituationer, för AI-träning av självkörande bilar. Nu ska forskarna, med Gabriel Eilertsen i spetsen, ge sig i kast med medicinska bilddata från SCAPIS. Det kan exempelvis röra sig om 3-dimensionella datortomografiundersökningar där hjärta och kärl avbildas.
De AI-syntetiserade bilderna skapas av så kallade neurala nätverk, en sorts självlärande system som på liknande sätt som en hjärna blir bättre på att lösa en viss uppgift genom att träna om och om igen. Forskarna låter två neurala nätverk tävla mot varandra (det är denna metod som kallas som kallas GAN, Generative Adversarial Networks). Det ena nätverket har till uppgift att skapa en syntetiserad bild som ser realistisk ut. Det andra nätverket, ”motståndaren”, har till uppgift att avgöra om den genererade bilden är en riktig bild eller inte. Till en början är båda nätverken dåliga på sin uppgift. Men när det bildgenererande nätverket får återkoppling på vad som lurar det andra nätverket lär det sig och blir allt bättre. Samtidigt får också det bedömande nätverket återkoppling på när det lyckas avgöra vad som är syntetiskt. Successivt blir båda AI-nätverken allt skickligare.
– Denna kapplöpningsmetod har visat sig vara väldigt effektiv för att träna upp AI-nätverk i att lösa specifika uppgifter, säger Claes Lundström.
Projektet med SCAPIS-datalabbet har finansiering från VINNOVA i två år. Under den tiden ska forskare göra ett par pilotprojekt där de syntetiserade bilderna används för AI-träning. Det skulle kunna röra sig om att utveckla modeller som förutser hur en viss sjukdom utvecklas, eller för att identifiera nya grupper av sjukdomar. Förutom att det kan bidra med svar på medicinska frågeställningar, blir det ett sätt att validera om datalabbet fungerar som det är tänkt.
AI för vårdens verklighet
Få har väl missat att AI är hett i dag. Många aktörer lyfter fram att AI kommer att revolutionera vården. Samtidigt visade Socialstyrelsens kartläggning hösten 2019 att det visserligen pågår mycket forskning i Sverige inom området, men bara ett mindre antal AI-baserade stöd används i dag i hälso- och sjukvården. Syftet med AIDA är att akademi, sjukvård och industri ska arbeta tillsammans för att kunna omsätta tekniska framsteg inom AI för medicinsk bildanalys till användbara arbetsverktyg för vården. Den största utmaningen, menar Claes Lundström, när det gäller AI inom medicin är att göra AI-lösningar som passar in i kliniska arbetsflöden och gör nytta i verkligheten. Det kommer allt fler exempel på AI-nätverk som är minst lika bra som en expert, och bättre än en genomsnittlig läkare, på att lösa en viss uppgift. Haken är att de är väldigt specifika i vad de klarar av att göra.
– Ofta är tanken att effektivisera genom att AI-stöd utför en diagnostisk deluppgift utan att läkaren behöver titta på bilderna. Men om läkaren ändå måste granska bilderna för andra delar av bedömningen, så är det svårt att få till någon tidsbesparing. Däremot, om AI-stödet gör att manuella moment faktiskt försvinner, kan även smala lösningar få väldigt stor positiv effekt. Vi som utvecklar AI-stöd för vården måste veta hur förutsättningarna ser ut i den kliniska verkligheten och exakt på vilket sätt vi ska hjälpa till, säger Claes Lundström.
Han menar att det ofta finns ett omedvetet antagande att AI-stödet ska vara en låda som arbetar helt självständigt.
– Om vi i stället utgår från att personalen i vården ska jobba tillsammans med AI:n, så måste vi tänka till kring hur människa-dator-interaktionen ska se ut. Det är alltid en människa som tar emot resultatet som AI:n lämnar ifrån sig, säger Claes Lundström.
Det är viktigt att användargränssnittet kan förmedla hur stor osäkerheten i svaret är och att det är möjligt för människan att ställa kritiska frågor för att förstå resultatet som AI-stödet presenterar.
– En grundläggande sak inom medicinsk bildanalys kan vara att få veta vilka delar av bilden som AI-modellen har baserat sitt svar på. Exempelvis varför bedömer AI:n att något är cancer, och håller den mänskliga patologen med om det?