Wykrywanie i zmniejszanie wpływu tendencyjności danych za pomocą objaśnialnej sztucznej inteligencji
W przeciwieństwie do płytkich modeli wykorzystywanych w przeszłości, obecnie większość systemów opartych na głębokich sieciach neuronowych wyodrębnia cechy automatycznie. Do tego celu zazwyczaj wykorzystywane są ogromne ilości specjalnie przygotowanych danych, których jakość ma ogromny wpływ na wydajność modeli. Te dane są często zaszumione, zbiasowane, a czasem nawet zawierają nieprawidłowo oznaczone próbki. Co więcej, głębokie sieci neuronowe (DNN), które są modelami typu czarna skrzynka, z dziesiątkami warstw o milionach parametrów, są coraz częściej wykorzystywane do rozwiązywania bardzo ważnych i krytycznych zadań. Ich skomplikowana budowa, trudność w interpetacji wyników oraz wysokie zapotrzebowanie przejrzystość i poprawność procesu podejmowania decyzji sprawia, że zwłaszcza gdy DNN są wykorzystywane w transporcie (samochody autonomiczne), w służbie zdrowia, systemach prawnych, finansach i wojskowości.
Aby sprostać tym wyzwaniom, projekt ma na celu opracowanie metod objaśnialnej sztucznej inteligencji (ang. Explainable Artificial Intelligence - XAI), które mogą pomóc w wykrywaniu i zmniejszeniu problemu biasów w danych. Projekt obejmuje badanie i integrację metod XAI z nowymi i istniejącymi systemami sztucznej inteligencji, oraz koncentruje się głównie na Głębokich Sieciach Neuronowych w dziedzinie wizji komputerowej. Jednym ze sposobów kategoryzowania metod XAI jest podzielenie ich na lokalne i globalne wyjaśnienia. Analiza lokalna ma na celu wyjaśnienie pojedynczej predykcji modelu, podczas gdy analiza globalna objaśnia, w jaki sposób działa cały model. Projekt ma na celu opracowanie zarówno metod lokalnych, jak i globalnych, w celu zwiększenia interpetowalności systemów typu czarna skrzynka, opartych na głębokich sieciach neuronowych, w celu: ich uzasadnienia, kontrolowania ich procesu decyzyjnego, oraz odkrywania nowej wiedzy.
Projekt podzielony jest na trzy zadania badawcze:
- RT1: Rozwijanie globalnie świadomych objaśnień lokalnych dla uzasadnienia poprawności predykcji
- RT2: Rozwijanie objaśnień globalnych dla detekcji niepożądanej tendencyjności danych
- RT3: Rozwijanie trenowalnego pola uwagi w celu eliminacji niepożądanej tendencyjności danych wpływającej na pracę modelu
Informacje szczegółowe
- Program finansujący:
- PRELUDIUM
- Instytucja:
- Narodowe Centrum Nauki (NCN) (National Science Centre)
- Porozumienie:
- UMO-2019/35/N/ST6/04052 z dnia 2020-06-19
- Okres realizacji:
- 2020-06-19 - 2023-06-18
- Kierownik projektu:
- dr inż. Agnieszka Mikołajczyk-Bareła
- Realizowany w:
- Katedra Elektrotechniki, Systemów Sterowania i Informatyki
- Typ zgłoszenia:
- Krajowy Program Badawczy
- Pochodzenie:
- Projekt krajowy
- Weryfikacja:
- Politechnika Gdańska
wyświetlono 318 razy