Abstrakt
Deep Neural Networks (DNN) are state of the art algorithms for image classification. Although significant achievements and perspectives, deep neural networks and accompanying learning algorithms have some important challenges to tackle. However, it appears that it is relatively easy to attack and fool with well-designed input samples called adversarial examples. Adversarial perturba-tions are unnoticeable for humans. Such attacks are a severe threat to the devel-opment of these systems in critical applications, such as medical or military sys-tems. Hence, it is necessary to develop methods of counteracting these attacks. These methods are called defense strategies and aim at increasing the neural mod-el's robustness against adversarial attacks. In this paper, we reviewed the recent findings in adversarial attacks and defense strategies. We also analyzed the ef-fects of attacks and defense strategies applied, using the local and global analyz-ing methods from the family of explainable artificial intelligence.
Cytowania
-
4
CrossRef
-
0
Web of Science
-
5
Scopus
Autorzy (3)
Cytuj jako
Pełna treść
- Wersja publikacji
- Accepted albo Published Version
- Licencja
- Copyright (2020 Springer Nature Switzerland AG)
Słowa kluczowe
Informacje szczegółowe
- Kategoria:
- Publikacja monograficzna
- Typ:
- rozdział, artykuł w książce - dziele zbiorowym /podręczniku w języku o zasięgu międzynarodowym
- Tytuł wydania:
- Artificial Intelligence and Soft Computing strony 134 - 146
- Język:
- angielski
- Rok wydania:
- 2020
- Opis bibliograficzny:
- Klawikowska Z., Mikołajczyk A., Grochowski M.: Explainable AI for Inspecting Adversarial Attacks on Deep Neural Networks// Artificial Intelligence and Soft Computing. Part 1/ : , 2020, s.134-146
- DOI:
- Cyfrowy identyfikator dokumentu elektronicznego (otwiera się w nowej karcie) 10.1007/978-3-030-61401-0_14
- Weryfikacja:
- Politechnika Gdańska
wyświetlono 263 razy
Publikacje, które mogą cię zainteresować
Deep Learning: A Case Study for Image Recognition Using Transfer Learning
- S. Erpolat Tasabat,
- O. Aydin