Abstrakt
We present a novel deep learning model for the detection and reconstruction of dysarthric speech. We train the model with a multi-task learning technique to jointly solve dysarthria detection and speech reconstruction tasks. The model key feature is a low-dimensional latent space that is meant to encode the properties of dysarthric speech. It is commonly believed that neural networks are black boxes that solve problems but do not provide interpretable outputs. On the contrary, we show that this latent space successfully encodes interpretable characteristics of dysarthria, is effective at detecting dysarthria, and that manipulation of the latent space allows the model to reconstruct healthy speech from dysarthric speech. This work can help patients and speech pathologists to improve their understanding of the condition, lead to more accurate diagnoses and aid in reconstructing healthy speech for afflicted patients.
Cytowania
-
1 4
CrossRef
-
0
Web of Science
-
2 0
Scopus
Autorzy (5)
Cytuj jako
Pełna treść
- Wersja publikacji
- Accepted albo Published Version
- Licencja
- Copyright (2019 ISCA)
Słowa kluczowe
Informacje szczegółowe
- Kategoria:
- Aktywność konferencyjna
- Typ:
- publikacja w wydawnictwie zbiorowym recenzowanym (także w materiałach konferencyjnych)
- Język:
- angielski
- Rok wydania:
- 2019
- Opis bibliograficzny:
- Korzekwa D., Barra-Chicote R., Kostek B., Drugman T., Łajszczak M.: Interpretable Deep Learning Model for the Detection and Reconstruction of Dysarthric Speech// / : , 2019,
- DOI:
- Cyfrowy identyfikator dokumentu elektronicznego (otwiera się w nowej karcie) 10.21437/interspeech.2019-1206
- Źródła finansowania:
-
- Działalność statutowa/subwencja
- Weryfikacja:
- Politechnika Gdańska
wyświetlono 114 razy
Publikacje, które mogą cię zainteresować
Computer-assisted pronunciation training—Speech synthesis is almost all you need
- D. Korzekwa,
- J. Lorenzo-trueba,
- T. Drugman
- + 1 autorów
Introduction to the special issue on machine learning in acoustics
- Z. Michalopoulou,
- P. Gerstoft,
- B. Kostek
- + 1 autorów