System bezpieczeństwa dla współpracującego robota przemysłowego na bazie kamer głębi - Publikacja - MOST Wiedzy

Wyszukiwarka

System bezpieczeństwa dla współpracującego robota przemysłowego na bazie kamer głębi

Abstrakt

W artykule zarysowano problematykę robotyzacji małych przedsiębiorstw, w szczególności aspekt robotyzacji z uwzględnieniem robotów współpracujących. Szeroko omówiono zagadnienie robotów współpracujących oraz bezpieczeństwa człowieka podczas takiej współpracy. Przedstawiono również najbardziej popularne systemy bezpieczeństwa w odniesieniu do obowiązujących norm. W głównej części artykułu przedstawiono Cooperating Automaton System with Stereovision Invigilating the Environment (CASSIE), system dedykowany do monitorowania bezpieczeństwa robotów kooperacyjnych za pomocą multimodalnych sensorów głębi. Ukazano również efekt działania takiego systemu.

Cytowania

  • 1

    CrossRef

  • 0

    Web of Science

  • 0

    Scopus

Cytuj jako

Pełna treść

pobierz publikację
pobrano 235 razy
Wersja publikacji
Accepted albo Published Version
Licencja
Creative Commons: CC-BY otwiera się w nowej karcie

Słowa kluczowe

Informacje szczegółowe

Kategoria:
Publikacja w czasopiśmie
Typ:
artykuły w czasopismach
Opublikowano w:
Pomiary Automatyka Robotyka nr 23, strony 41 - 46,
ISSN: 1427-9126
Język:
polski
Rok wydania:
2019
Opis bibliograficzny:
Masłowski D., Czubenko M.: System bezpieczeństwa dla współpracującego robota przemysłowego na bazie kamer głębi// Pomiary Automatyka Robotyka -Vol. 23,iss. 4 (2019), s.41-46
DOI:
Cyfrowy identyfikator dokumentu elektronicznego (otwiera się w nowej karcie) 10.14313/par_234/41
Bibliografia: test
  1. Kulik J., Wojtczak Ł., Bezpieczna interakcja człowieka z robo- tem -realna potrzeba czy chwilowy trend wśród krajowych MSP, "Pomiary Automatyka Robotyka", R. 22, Nr 1, 2018, 67-74, DOI: 10.14313/PAR_227/67. otwiera się w nowej karcie
  2. Kowalczuk Z., Czubenko M., Computational approaches to modeling artificial emotion-an overview of the proposed solutions, "Frontiers in Robotics and AI, 21, 2016, DOI: 10.3389/frobt.2016.00021. otwiera się w nowej karcie
  3. Colgate JE., Peshkin M.A., Cobots, US Patent 5,952,796, 1999.
  4. IFR International Federation of Robotics, Demystifying Collaborative Industrial Robots, 2018. otwiera się w nowej karcie
  5. Michalos G., Makris S., Tsarouchi P., Guasch T., Kon- tovrakis D., Chryssolouris G., Design Considerations for Safe Human-robot Collaborative Workplaces, "Procedia CIRP", Vol. 37, 2015, 248-253, DOI: 10.1016/j.procir.2015.08.014. otwiera się w nowej karcie
  6. Long P., Chevallereau C., Chablat D., Girin A., An industrial security system for human-robot coexistence, "Industrial Robot: An International Journal", Vol. 45, No. 2, 2018, 220-226, DOI: 10.1108/IR-09-2017-0165. otwiera się w nowej karcie
  7. Kowalczuk Z., Czubenko M., Intelligent decision-making sys- tem for autonomous robots, "International Journal of Applied Mathematics and Computer Science", Vol. 21, No. 4, 2011, 671-684, DOI: 10.2478/v10006-011-0053-7. otwiera się w nowej karcie
  8. Cobotsguide, Cobot Comparison Chart, 2019.
  9. Yen S.-H., Tang P.-C., Lin Y.-C., Lin C.-Y., Development of a Virtual Force Sensor for a Low-Cost Collaborative Robot and Applications to Safety Control, "Sensors", Vol. 19, No. 11, 2019, DOI: 10.3390/s19112603. otwiera się w nowej karcie
  10. Albu-Schäffer A., Haddadin S., Ott C., Stemmer A., Wim- böck T., Hirzinger G., The DLR lightweight robot: design and control concepts for robots in human environments, "Indus- trial Robot: An International Journal", Vol. 5, 2007, 376-385, DOI: 10.1108/01439910710774386. otwiera się w nowej karcie
  11. Popov D., Klimchik A., Mavridis N., Collision detection, localization & classification for industrial robots with joint torque sensors, [in:] 26 th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), IEEE, 2017, 838-843, DOI: 10.1109/ROMAN.2017.8172400. otwiera się w nowej karcie
  12. Halme R.-J., Lanz M., Kämäräinen J., Pieters R., Latokar- tano J., Hietanen A., Review of vision-based safety systems for human-robot collaboration, "Procedia CIRP", Vol. 72, 2018, 111-116, DOI: 10.1016/j.procir.2018.03.043. otwiera się w nowej karcie
  13. Winkler A., Suchý J., Vision based collision avoidance of industrial robots, "IFAC Proceedings Volumes", Vol. 44, No. 1, 2011, 9452-9457, DOI: 10.3182/20110828-6-IT-1002.00472. otwiera się w nowej karcie
  14. Kaldestad K.B., Haddadin S., Belder R., Hovland G., Anisi D.A., Collision avoidance with potential fields based on paral- lel processing of 3D-point cloud data on the GPU, [in:] Inter- national Conference on Robotics and Automation (ICRA), IEEE, 2014, 3250-3257, DOI: 10.1109/ICRA.2014.6907326. otwiera się w nowej karcie
  15. Yang S., Xu W., Liu Z., Zhou Z., Pham D.T., Multi-source vision perception for human-robot collaboration in man- ufacturing, [in:] 15th International Conference on Net- working, Sensing and Control (ICNSC), IEEE, 2018, 1-6, DOI: 10.1109/ICNSC.2018.8361333. otwiera się w nowej karcie
  16. Saveriano M., Lee D., Distance based dynamical system modulation for reactive avoidance of moving obstacles, [in:] International Conference on Robotics and Automa- tion (ICRA), IEEE, 2014, 5618-5623, DOI: 10.1109/ICRA.2014.6907685. otwiera się w nowej karcie
  17. Ahmad R., Plapper P., Human-Robot Collaboration: Two- fold strategy algorithm to avoid collisions using ToF sensor, Bibliografia otwiera się w nowej karcie
  18. Eurostat (2019): Job vacancies between 2017 and 2019. otwiera się w nowej karcie
  19. Dhiraj A.B., Countries with the Most Industrial Robots per 10,000 Employees, "Ceoworld Magazine", 14. 03. 2018. otwiera się w nowej karcie
  20. Kowalczuk Z., Czubenko M., Przegląd robotów humanoidalnych, "Pomiary Automatyka Robotyka", R. 19, Nr 4, 2015, 33-42, DOI: 10.14313/PAR_218/33. "International Journal of Materials, Mechanics and Manu- facturing", Vol. 4, No. 2, 2015, 144-147, DOI: 10.7763/IJMMM.2016.V4.243. otwiera się w nowej karcie
  21. Varhegyi T., Melik-Merkumians M., Steinegger M., Halmet- schlager-Funek G., Schitter G., A Visual Servoing Approach for a Six Degrees-of-Freedom Industrial Robot by RGB-D Sensing, "Automation and Robotics", 2017, DOI: 10.3217/978-3-85125-524-9-14. otwiera się w nowej karcie
  22. Grunnet-Jepsen A., Winer P., Takagi A., Sweetser J., Zhao K., Khuong T., Nie D., Woodfill J., Using the Intel RealSense Depth cameras D4xx in Multi-Camera Configurations. Intel.
  23. Stefańczyk M., Kornuta T., Akwizycja obrazów RGBD: metody, "Pomiary Automatyka Robotyka", R. 18, Nr 1, 2014, 82-90, DOI: 10.14313/PAR_203/82. otwiera się w nowej karcie
  24. Kowalczuk Z., Merta T., Wizualizacja obrazu stereowizyjnego w systemie VISROBOT, "Pomiary Automatyka Kontrola", R. 60, Nr 10, 2014, 803-808.
  25. Kowalczuk Z., Merta T., Three-dimensional mapping for data collected using variable stereo baseline, [in:] 21st Inter- national Conference on Methods and Models in Automa- tion and Robotics (MMAR), IEEE, 2016, 1082-1087, DOI: 10.1109/MMAR.2016.7575288. otwiera się w nowej karcie
  26. Merta T., Odwzorowanie obiektów ograniczonego środowi- ska na trójwymiarowej mapie cyfrowej z wykorzystaniem robotów mobilnych zaopatrzonych w stereowizje, Praca dok- torska, Politechnika Gdańska, Gdańsk 2019.
  27. Redmon J., Farhadi A., YOLOv3: An incremental improve- ment, "arXiv preprint arXiv:1804.02767", 2018. otwiera się w nowej karcie
  28. Cao Z., Hidalgo G., Simon T., Wei S.-E., Sheikh Y., OpenPose: realtime multi-person 2D pose estimation using Part Aff- nity Fields, "arXiv preprint arXiv:1812.08008", 2018. otwiera się w nowej karcie
Weryfikacja:
Politechnika Gdańska

wyświetlono 75 razy

Publikacje, które mogą cię zainteresować

Meta Tagi