29 augusti 2025

Artificiell intelligens, AI, har blivit ett stöd i forskning och forskarutbildning med verktyg som ständigt utvecklas. Den öppnar möjligheter men väcker också frågor om integritet, hur AI hanterar data och forskarens ansvar.

Kvinna föreläser
Katarina Sperling på Institutionen för beteendevetenskap och lärande (IBL) menar att AI kan hjälpa doktorander, särskilt de som skriver på ett andraspråk, men varnar för att lärprocessen riskerar att försvagas. Fotograf: Olov Planthaber

Katherine Harrison, universitetslektor och docent på Tema Genus vid Institutionen för Tema.Fotograf: Charlotte Perhammar

– Vi behöver stödja doktorander i att använda AI på ett sätt som stärker deras kritiska förmåga, snarare än att ersätta den, säger Katherine Harrison, forskare vid Institutionen för Tema.

Hon påpekar att universiteten måste ta ett stort ansvar för att skapa tydliga riktlinjer, annars riskerar frågorna att hanteras individuellt av varje handledare.

Ett av de största problemen med AI är att tekniken kan generera svar som ser trovärdiga ut men är felaktiga. Detta kallas hallucinationer och är en effekt av att språkmodellerna bygger på sannolikheter snarare än förståelse.

Porträtt (Amy Loutfi).
Amy Loutfi delar sin tid mellan en professur vid Institutionen för teknik och naturvetenskap (ITN) på Linköpings universitet, en professur vid Örebro universitet och uppdraget som programdirektör för Wallenberg AI, Autonomous Systems and Software Program (WASP). Fotograf: Jesper Eriksson/Örebro universitet

– Det är viktigt att komma ihåg att AI inte tänker eftersom AI är kraftfulla, men mekaniska, beräkningar. När vi litar för mycket på resultaten riskerar vi att bygga forskning på felaktiga grunder, säger Amy Loutfi, programdirektör för WASP.

Hon betonar också att forskare måste förstå hur modellerna tränas, eftersom dataunderlaget ofta är ofullständigt och snedvridet. Detta kan påverka både slutsatser och etiska överväganden.

Att förstå AI:s möjligheter och begränsningar blir därför en ny färdighet för forskare. Flera menar att ”AI-litteracitet” – förmågan att kritiskt granska, ifrågasätta och ansvarsfullt använda AI – måste bli en självklar del av forskarutbildningen.

– Vi ser redan att doktorander använder AI för att förbättra språk och struktur i sina texter. Det kan vara ett värdefullt stöd, särskilt för dem som inte har engelska som modersmål, men det kan också leda till att viktiga lärmoment går förlorade, säger Katarina Sperling, som bedriver forskning om AI i utbildning.

Hon varnar också för att språket riskerar att bli mer enhetligt och fattigare om forskare förlitar sig för mycket på AI, vilket kan minska mångfalden i akademiskt skrivande.

Författarskap och ansvar

Man pratar i microfon
Lars Lindblom är biträdande professor på Institutionen för kultur och samhälle (IKOS).Fotograf: Sara Läthén
Frågan om vem som egentligen skriver en text blir också mer komplex. I några avhandlingar har doktorander börjat inkludera en beskrivning av hur AI använts i skrivprocessen. Detta kan bidra till transparens och tydlighet, men väcker också nya frågor om författarskap och ansvar.

– Vi riskerar att tappa bort själva kärnan i forskarutbildningen – att utveckla förmågan att formulera frågor, resonera kritiskt och självständigt värdera svar. Det är färdigheter som AI inte kan ersätta, säger Lars Lindblom, forskare på avdelningen för filosofi och tillämpad etik.

Vägar framåt

Frågorna om AI:s roll i forskning och forskarutbildning diskuterades nyligen vid ett seminarium på Linköpings universitet, med bidrag från forskare inom flera ämnesområden. Flera lösningar lyftes fram som nödvändiga:

  • Tydliga riktlinjer på universitetsnivå för hur AI får användas i forskning och forskarutbildning.
  • Avtal mellan handledare och doktorand i början av utbildningen om förväntningar kring AI.
  • Krav på transparens, till exempel att avhandlingar och artiklar redovisar i vilken omfattning AI-verktyg använts.
  • Utbildning i AI-litteracitet, för att ge forskare och doktorander de verktyg de behöver för att använda AI kritiskt och ansvarsfullt.

Mer än en teknisk fråga

Samtidigt betonar forskare också att AI inte bara är en teknisk fråga. Tekniken ägs och styrs av stora globala företag, vilket innebär att akademin också måste förhålla sig till politiska och samhälleliga dimensioner.

– AI är inte bara ett verktyg, det är också en maktfråga och vi har heller inte hela bilden av vad de stora teknikföretagen som har de här teknologierna vill ha från oss. Vi måste prata om vad det betyder för vår syn på kunskap och forskning, säger Katarina Sperling.

Kontakt

Mer om AI vid LiU

Senaste nytt från LiU

Den första maskinen som användes för att analysera torkning med torr luft.

Nobelprisbelönad teknik torkar spannmål – utan värme

Nobelprisbelönad teknik används nu i svenskt lantbruk. På Hasta Gård har försök visat att spannmål kan torkas utan värme och med betydligt mindre energi. Forskningen bedrivs inom ett innovationsprojekt där bland annat Agtech Sweden vid LiU medverkar.

Äldre man och ett litet barn skrattar mot varandra.

Mannens livsstil kan påverka barnbarnens hälsa

Kost, rökning och infektioner bidrar till ett slags biologiskt minne som kan föras över till kommande barn. LiU-forskare har i en översiktsartikel lagt fram en teori om pappans bidrag till sina ättlingars skydd mot infektioner.

Lisa Guntram utanför förlossningen på universitetssjukhuset i Linköping.

Kvinnor brottas med normer efter förlossningsbristning

Normen säger att en kvinna snabbt ska bli aktiv igen efter att ha fött sitt barn. Men efter en andra gradens förlossningsbristning kan det vara omöjligt. I en ny studie berättar kvinnor om frustration när förväntningarna krockar med verkligheten.