De mest trängande frågorna inom AI-utveckling idag kan kartläggas till tre "luckor" när det gäller förhandlingar om etiska och moraliska överväganden: översättning, implementering och ansvar. Fast i översättningsluckan kämpar många teknologer med att förstå om och hur något kan vara eller kan bli en etisk fråga. Även när dessa frågor erkänns och diskuteras som potentiellt etiskt problematiska, gör implementeringsklyftan det svårt att hantera dem i praktiken och i kod eftersom det finns en mängd verktyg men få tydliga tillvägagångssätt. Slutligen manifesteras problemet med ansvarsluckan i bristen på en tydlig ansvarsram inom företag och organisationer som producerar teknologi, liksom bland de intressenter som beställer, implementerar och använder den. "Operationalisering av etik för AI" samlar ett erfaret tvärvetenskapligt team för att hantera dessa tre luckor.
Två fallstudier
- Förklarbarhet: AI-drivna system är ofta icke-transparenta och det kan vara svårt att förstå hur och varför beslut fattas. Genom att kritiskt granska det växande området Förklarbar konstgjord intelligens (XAI) frågar detta projekt vad som bör förklaras för vem, hur och i vilket syfte?
- Syntetiska data: hur kan vi bäst nyttja AI för att upptäcka mönster i datamängder, samtidigt som vi tar hänsyn till säkerhets- och integritetsfrågor inom sektorer som hälso- och sjukvård? Kan syntetisk data vara svaret? Detta projekt kommer att undersöka vilka skapade verkligheter som konstrueras med hjälp av syntetiska data, vad de förväntas uppnå och för vem.
Undersökningar av detta slag som berör de etiska, ekonomiska, sociala och juridiska aspekter som kan följa med den pågående teknologiska förskjutningen i samhället, utgör kärnan i WASP-HS-programmet.