Abstrakt
Visual features convey important information for automatic speech recognition (ASR), especially in noisy environment. The purpose of this study is to evaluate to what extent visual data (i.e. lip reading) can enhance recognition accuracy in the multi-modal approach. For that purpose motion capture markers were placed on speakers' faces to obtain lips tracking data during speaking. Different parameterizations strategies were tested and the accuracy of phonemes recognition in different experiments was analyzed. The obtained results and further challenges related to the bi-modal feature extraction process and decision systems employment are discussed.
Cytowania
-
1
CrossRef
-
0
Web of Science
-
3
Scopus
Autorzy (4)
Cytuj jako
Pełna treść
pełna treść publikacji nie jest dostępna w portalu
Słowa kluczowe
Informacje szczegółowe
- Kategoria:
- Aktywność konferencyjna
- Typ:
- publikacja w wydawnictwie zbiorowym recenzowanym (także w materiałach konferencyjnych)
- Tytuł wydania:
- 2018 11th International Conference on Human System Interaction (HSI) strony 318 - 324
- Język:
- angielski
- Rok wydania:
- 2018
- Opis bibliograficzny:
- Cygert S., Szwoch G., Zaporowski S., Czyżewski A.: Vocalic Segments Classification Assisted by Mouth Motion Capture// 2018 11th International Conference on Human System Interaction (HSI)/ : , 2018, s.318-324
- DOI:
- Cyfrowy identyfikator dokumentu elektronicznego (otwiera się w nowej karcie) 10.1109/hsi.2018.8430943
- Weryfikacja:
- Politechnika Gdańska
wyświetlono 186 razy