Förstå resultaten från djup inlärning

I detta projekt strävar vi efter att förstå och analysera djupa inlärningssystem och få begripliga resultat. Specifikt utforskar vi en ny teknik för symbolisk representation av abstraktioner.

Djupa inlärningssystem har tre egenskaper som gör dem svåra att lita på i säkerhetskritiska applikationer. De är statistiska och kan inte utnyttjas i sammanhang där värsta tänkbara scenario måste kunna tillämpas. Resultaten kan vara svårt att tolka och ges inte med några förklaringar, och de är notoriskt bräckliga.

I detta projekt utforskar vi en ny teknik för symbolisk representation av abstraktioner. Vi kommer att bygga nya verktyg för att verifiera effektiviteten av metoden för ett autonomt seende fordonssystem.

Symbolisk representation

Forskare

Externa partners

Professor Carl Seger, Chalmers tekniska högskola och professor Liu Yang, NanYang Technical University, Singapore.

Forskning i realtidsystem