Djupa inlärningssystem har tre egenskaper som gör dem svåra att lita på i säkerhetskritiska applikationer. De är statistiska och kan inte utnyttjas i sammanhang där värsta tänkbara scenario måste kunna tillämpas. Resultaten kan vara svårt att tolka och ges inte med några förklaringar, och de är notoriskt bräckliga.
I detta projekt utforskar vi en ny teknik för symbolisk representation av abstraktioner. Vi kommer att bygga nya verktyg för att verifiera effektiviteten av metoden för ett autonomt seende fordonssystem.
Symbolisk representation