Förklara dig själv – design av transparent automation för slutanvändare

Kommandobrygga på fraktfartyg, bildskärmar och kontroller
Den transparenta RESKILL-prediktorn (nedre vänstra displayen) som visualiserar hur olika GPS-filterinställningar påverkar prediktionen av fartygets rörelse.

Samtidigt som automation blir mer intelligent blir den svårare att förstå. Detta projekt undersöker genom design transparenta egenskaper som förklarar automationens beteende och rekommendationer till operatörer i säkerhetskritiska arbetsmiljöer.

Bakgrund

Avancerad automation som artificiell intelligens (AI) anses vara en viktig möjliggörare i många sociala och industriella miljöer för att uppnå framtida mål när det gäller säkerhet, kapacitet och hållbarhet. En kärnfråga är hur automation bör designas för att främja samarbete mellan människor, särskilt slutanvändare, och deras automatisering. Ett fungerande samarbete kräver ömsesidig förståelse och förmåga att ge varandra feedback. Men nuvarande system, med sina komplexa strukturer, snabba beräkningsprocesser, datavolymer och icke-linjära resonemang är svåra att förstå. Forskning om automationstransparens syftar till att öka människans förståelse, förtroende och acceptans för automationen de hanterar. Även om det finns ett behov av mer transparenta lösningar är framtagandet av meningsfulla visualiseringar och förklaringar för hur ett stödverktyg fungerar och resonerar inte en trivial uppgift, särskilt när det gäller säkerhetskritiska sammanhang där tiden att agera ofta är begränsad. Trots ett ökat forskningsfokus på transparent automationsdesign råder en brist på empiriska resultat för att kunna dra stabila slutsatser. Inte heller finns det mycket vägledning kring hur man designar och tillämpar transparens i gränssnitt mellan människa och maskin. AI-forskning om transparens har kritiserats för att fokusera på hur man bygger förklaringar samtidigt som man försummar den underliggande psykologin och den mänskliga tolkningen av dem.

Projektbeskrivning 

Detta projekt syftar till att bygga kunskap om hur transparens kan utformas för att stödja slutanvändarnas förståelse, interaktion och samarbete med automation i säkerhetskritiska uppgifter. Detta kommer att uppnås genom tillämpad forskning inom flera domäner, där slutanvändare ska identifiera transparenskrav, utvärdera designkoncept och prototyper samt delta i experiment. Den teoretiska grunden bygger på designteori från områdena human factors, människa-maskininteraktion och informationsvisualisering. Projektet kommer att generera human factors riktlinjer för hur man upptäcker användarnas krav på transparens och tillämpar dem i gränssnittsdesign, hur man anpassar transparens baserat på användarnas feedback (t.ex. genom att använda ögonrörelseutrustning) och hur aktivt lärande kan stödja användarnas utforskning av transparensfunktioner i utbildningen.

Projektet syftar till att främja området för automationstransparens genom att:

  • Involvera slutanvändare genom designprocessen för transparent automatisering (dvs. deltagande design)
  • Tillhandahålla empiriska resultat baserade på simuleringar med operativa slutanvändare i flera säkerhetskritiska arbetsmiljöer.
  • Ge vägledning för hur man implementerar human factors i utformningen av transparent automation för att underlätta förståelse och förtroende
  • Utforska transparensmekanismer för användarfeedback och anpassning till den enskilda användaren.

Forskningen kommer att förlita sig på en deltagande designmetod som involverar slutanvändare för att säkerställa att härledda transparenslösningar stödjer operatörernas förståelse och möter deras krav på transparens. Dessutom kommer diskreta metoder att användas för att samla feedback från användare för att anpassa förklaringar, till exempel genom att använda ögonrörelse-utrustning. Designarbetet startar med kvalitativa fältstudier för att förstå domänen, granskning av olycksrapporter och intervjuer med slutanvändare om automationsutmaningar och förståelseproblem. Designprocessen fortsätter med att analysera resultaten och format krav på transparens. Detta representerar starten på en iterativ designprocess med slutanvändare som ofta är involverade i att granska processen och testa prototyper.

Om projektet

  • Syfte: Projektet syftar till att designa och undersöka transparenta lösningar till avancerade stödsystem, i säkerhetskritiska arbetsmiljöer, för att bättre stödja operatörernas förståelse, interaktion och tillit till deras automationsstödsystem.
  • Start: januari 2022
  • Projektledare: Carl Westin (kontaktuppgifter till höger)
  • Forskningen stöds av Centrum för Industriell Informationsteknologi (CENIIT)
  • Industripartners är bland annat Sjöfartsverket, LFV och ABB Sverige.

Relaterade forskningsprojekt:

RESKILL – transparenta navigationsstöd inom sjöfarten och digitala assistenter i digitala flygledartorn. Finansierat av Trafikverket (2017-2021).
MAHALO – transparent och personligt anpassat AI-beslutsstöd som stödjer flygledare i flygtrafikledning. Finansieras av Horizon 2020 (2020-2022).
HAIKU – transparenta lösningar till AI-assistenter inom flygsektorn, t.ex. flight deck, Urban Air Mobility, digitala torn och flygplatssäkerhetshantering. Finansierat av Horizon 2020 (2022-2025).
EXPLAIN – transparenta lösningar till AI-stödsystem för industriella tillämpningar inom massaproduktion och gruvdrift. Finansierat av Eureka AI Cluster (2022-2025).