Using deep learning to increase accuracy of gaze controlled prosthetic arm - Publikacja - MOST Wiedzy

Wyszukiwarka

Using deep learning to increase accuracy of gaze controlled prosthetic arm

Abstrakt

This paper presents how neural networks can be utilized to improve the accuracy of reach and grab functionality of hybrid prosthetic arm with eye tracing interface. The LSTM based Autoencoder was introduced to overcome the problem of lack of accuracy of the gaze tracking modality in this hybrid interface. The gaze based interaction strongly depends on the eye tracking hardware. In this paper it was presented how the overall the accuracy can be slightly improved by software solution. The cloud of points related to possible final positions of the arm was created to train Autoencoder. The trained model was next used to improve the position provided by the eye tracker. Using the LSTM based Autoencoder resulted in nearly 3% improvement of the overall accuracy.

Cytowania

  • 0

    CrossRef

  • 0

    Web of Science

  • 0

    Scopus

Cytuj jako

Pełna treść

pełna treść publikacji nie jest dostępna w portalu

Słowa kluczowe

Informacje szczegółowe

Kategoria:
Aktywność konferencyjna
Typ:
materiały konferencyjne indeksowane w Web of Science
Język:
angielski
Rok wydania:
2021
Opis bibliograficzny:
Kocejko T..: Using deep learning to increase accuracy of gaze controlled prosthetic arm, W: , 2021, ,.
DOI:
Cyfrowy identyfikator dokumentu elektronicznego (otwiera się w nowej karcie) 10.1109/hsi52170.2021.9538710
Źródła finansowania:
  • Działalność statutowa/subwencja
Weryfikacja:
Politechnika Gdańska

wyświetlono 100 razy

Publikacje, które mogą cię zainteresować

Meta Tagi