Intelligent Autonomous Robot Supporting Small Pets in Domestic Environment - Publikacja - MOST Wiedzy


Intelligent Autonomous Robot Supporting Small Pets in Domestic Environment


In this contribution, we present preliminary results of the student project aimed at the development of an intelligent autonomous robot supporting small pets in a domestic environment. The main task of this robot is to protect a freely moving small pets against accidental stepping on them by home residents. For this purpose, we have developed the mobile robot which follows a pet and makes an alarm signal when a human is approaching. A pet is recognized in images with the use of a convolutional neural network. Walls and obstacles are detected with the use of ultrasonic sensors. A control system of the robot is implemented with the use of the Jetson TX2 platform. Preliminary tests of the robot demonstrate not only usefulness of our solution but also further directions for its development.


  • 0


  • 0

    Web of Science

  • 0


Cytuj jako

Pełna treść

pobierz publikację
pobrano 529 razy
Wersja publikacji
Accepted albo Published Version
Copyright (2019, IFAC (International Federation of Automatic Control) Hosting by Elsevier Ltd.)

Słowa kluczowe

Informacje szczegółowe

Publikacja w czasopiśmie
artykuły w czasopismach
Opublikowano w:
IFAC-PapersOnLine nr 52, strony 194 - 199,
ISSN: 2405-8963
Rok wydania:
Opis bibliograficzny:
Chrzanowski A., Detko P., Stefański T.: Intelligent Autonomous Robot Supporting Small Pets in Domestic Environment// IFAC-PapersOnLine -Vol. 52,iss. 8 (2019), s.194-199
Cyfrowy identyfikator dokumentu elektronicznego (otwiera się w nowej karcie) 10.1016/j.ifacol.2019.08.070
Bibliografia: test
  1. Antonello, M., Carraro, M., Pierobon, M., and Menegatti, E. (2017). Fast and robust detection of fallen people from a mobile robot. In 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 4159-4166. otwiera się w nowej karcie
  2. Atmel (2014).
  3. /32/64kb in-system programmable flash [datasheet]. otwiera się w nowej karcie
  4. In Atmel ATmega640/V-1280/V-1281/V-2560/V- 2561/V. URL otwiera się w nowej karcie
  5. Barker, J. and Prasanna, S. (2016). Deep learning for object detection with digits. URL
  6. Fischinger, D., Einramhof, P., Papoutsakis, K., Wohlkinger, W., Mayer, P., Panek, P., Hofmann, S., Koertner, T., Weiss, A., Argyros, A., and Vincze, M. (2016). Hobbit, a care robot supporting independent living at home: First prototype and lessons learned. Robotics and Autonomous Systems, 75, 60 -78. otwiera się w nowej karcie
  7. Kowalczuk, Z. and Merta, T. (2016). Three-dimensional mapping for data collected using variable stereo base- line. In 2016 21st International Conference on Meth- ods and Models in Automation and Robotics (MMAR), 1082-1087. otwiera się w nowej karcie
  8. Nusrat, I. and Jang, S.B. (2018). A comparison of regular- ization techniques in deep neural networks. Symmetry, 10, 648. otwiera się w nowej karcie
  9. NVIDIA (2017). User guide. In Jetson TX2 Developer Kit. URL otwiera się w nowej karcie
  10. NVIDIA (2018). In Deploying Deep Learning. URL otwiera się w nowej karcie
  11. Stanford Vision Lab, Stanford University, P.U. (2019). In ImageNet. URL otwiera się w nowej karcie
  12. Szegedy, C., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., and Rabinovich, A. (2015). Going deeper with convolutions. In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1- 9. otwiera się w nowej karcie
  13. Yuan, W. and Li, Z. (2017). Development of a human- friendly robot for socially aware human-robot interac- tion. In 2017 2nd International Conference on Advanced Robotics and Mechatronics (ICARM), 76-81. otwiera się w nowej karcie
Politechnika Gdańska

wyświetlono 86 razy

Publikacje, które mogą cię zainteresować

Meta Tagi