29 augusti 2025

Artificiell intelligens, AI, har blivit ett stöd i forskning och forskarutbildning med verktyg som ständigt utvecklas. Den öppnar möjligheter men väcker också frågor om integritet, hur AI hanterar data och forskarens ansvar.

Kvinna föreläser
Katarina Sperling på Institutionen för beteendevetenskap och lärande (IBL) menar att AI kan hjälpa doktorander, särskilt de som skriver på ett andraspråk, men varnar för att lärprocessen riskerar att försvagas. Fotograf: Olov Planthaber

Katherine Harrison, universitetslektor och docent på Tema Genus vid Institutionen för Tema.Fotograf: Charlotte Perhammar

– Vi behöver stödja doktorander i att använda AI på ett sätt som stärker deras kritiska förmåga, snarare än att ersätta den, säger Katherine Harrison, forskare vid Institutionen för Tema.

Hon påpekar att universiteten måste ta ett stort ansvar för att skapa tydliga riktlinjer, annars riskerar frågorna att hanteras individuellt av varje handledare.

Ett av de största problemen med AI är att tekniken kan generera svar som ser trovärdiga ut men är felaktiga. Detta kallas hallucinationer och är en effekt av att språkmodellerna bygger på sannolikheter snarare än förståelse.

Porträtt (Amy Loutfi).
Amy Loutfi delar sin tid mellan en professur vid Institutionen för teknik och naturvetenskap (ITN) på Linköpings universitet, en professur vid Örebro universitet och uppdraget som programdirektör för Wallenberg AI, Autonomous Systems and Software Program (WASP). Fotograf: Jesper Eriksson/Örebro universitet

– Det är viktigt att komma ihåg att AI inte tänker eftersom AI är kraftfulla, men mekaniska, beräkningar. När vi litar för mycket på resultaten riskerar vi att bygga forskning på felaktiga grunder, säger Amy Loutfi, programdirektör för WASP.

Hon betonar också att forskare måste förstå hur modellerna tränas, eftersom dataunderlaget ofta är ofullständigt och snedvridet. Detta kan påverka både slutsatser och etiska överväganden.

Att förstå AI:s möjligheter och begränsningar blir därför en ny färdighet för forskare. Flera menar att ”AI-litteracitet” – förmågan att kritiskt granska, ifrågasätta och ansvarsfullt använda AI – måste bli en självklar del av forskarutbildningen.

– Vi ser redan att doktorander använder AI för att förbättra språk och struktur i sina texter. Det kan vara ett värdefullt stöd, särskilt för dem som inte har engelska som modersmål, men det kan också leda till att viktiga lärmoment går förlorade, säger Katarina Sperling, som bedriver forskning om AI i utbildning.

Hon varnar också för att språket riskerar att bli mer enhetligt och fattigare om forskare förlitar sig för mycket på AI, vilket kan minska mångfalden i akademiskt skrivande.

Författarskap och ansvar

Man pratar i microfon
Lars Lindblom är biträdande professor på Institutionen för kultur och samhälle (IKOS).Fotograf: Sara Läthén
Frågan om vem som egentligen skriver en text blir också mer komplex. I några avhandlingar har doktorander börjat inkludera en beskrivning av hur AI använts i skrivprocessen. Detta kan bidra till transparens och tydlighet, men väcker också nya frågor om författarskap och ansvar.

– Vi riskerar att tappa bort själva kärnan i forskarutbildningen – att utveckla förmågan att formulera frågor, resonera kritiskt och självständigt värdera svar. Det är färdigheter som AI inte kan ersätta, säger Lars Lindblom, forskare på avdelningen för filosofi och tillämpad etik.

Vägar framåt

Frågorna om AI:s roll i forskning och forskarutbildning diskuterades nyligen vid ett seminarium på Linköpings universitet, med bidrag från forskare inom flera ämnesområden. Flera lösningar lyftes fram som nödvändiga:

  • Tydliga riktlinjer på universitetsnivå för hur AI får användas i forskning och forskarutbildning.
  • Avtal mellan handledare och doktorand i början av utbildningen om förväntningar kring AI.
  • Krav på transparens, till exempel att avhandlingar och artiklar redovisar i vilken omfattning AI-verktyg använts.
  • Utbildning i AI-litteracitet, för att ge forskare och doktorander de verktyg de behöver för att använda AI kritiskt och ansvarsfullt.

Mer än en teknisk fråga

Samtidigt betonar forskare också att AI inte bara är en teknisk fråga. Tekniken ägs och styrs av stora globala företag, vilket innebär att akademin också måste förhålla sig till politiska och samhälleliga dimensioner.

– AI är inte bara ett verktyg, det är också en maktfråga och vi har heller inte hela bilden av vad de stora teknikföretagen som har de här teknologierna vill ha från oss. Vi måste prata om vad det betyder för vår syn på kunskap och forskning, säger Katarina Sperling.

Kontakt

Mer om AI vid LiU

Senaste nytt från LiU

LiU startar hälsovetenskapligt basår

Med ett hälsovetenskapligt basår hoppas Linköpings universitet kunna sänka tröskeln att söka till vårdutbildningar, öka möjligheten att fullfölja fortsatta studier och bidra till rekrytering till bristyrken så som sjuksköterska.

Lina Lago tittar upp mot kameran.

Pandemin gjorde det omöjliga möjligt i skolan

Även om coronapandemin innebar stora utmaningar för skolbarn med bland annat autism och ADHD fanns det även positiva sidor. Många föräldrar märkte att skolan plötsligt gjorde anpassningar som förut ansetts omöjliga. Det visar en ny studie från LiU.

Drönare mott grön himmel

LiU startar nationell pilot på masternivå inom försvarsinnovation

LiU utvecklar i samverkan med Försvarshögskolan ett nytt utbildningskoncept inom försvarsinnovation för studenter på masternivå. Syftet är att stärka Sveriges försvar genom att engagera studenter i tvärdisciplinära projekt.