System bezpieczeństwa dla współpracującego robota przemysłowego na bazie kamer głębi - Publication - Bridge of Knowledge

Search

System bezpieczeństwa dla współpracującego robota przemysłowego na bazie kamer głębi

Abstract

W artykule zarysowano problematykę robotyzacji małych przedsiębiorstw, w szczególności aspekt robotyzacji z uwzględnieniem robotów współpracujących. Szeroko omówiono zagadnienie robotów współpracujących oraz bezpieczeństwa człowieka podczas takiej współpracy. Przedstawiono również najbardziej popularne systemy bezpieczeństwa w odniesieniu do obowiązujących norm. W głównej części artykułu przedstawiono Cooperating Automaton System with Stereovision Invigilating the Environment (CASSIE), system dedykowany do monitorowania bezpieczeństwa robotów kooperacyjnych za pomocą multimodalnych sensorów głębi. Ukazano również efekt działania takiego systemu.

Citations

  • 1

    CrossRef

  • 0

    Web of Science

  • 0

    Scopus

Cite as

Full text

download paper
downloaded 235 times
Publication version
Accepted or Published Version
License
Creative Commons: CC-BY open in new tab

Keywords

Details

Category:
Articles
Type:
artykuły w czasopismach
Published in:
Pomiary Automatyka Robotyka no. 23, pages 41 - 46,
ISSN: 1427-9126
Language:
Polish
Publication year:
2019
Bibliographic description:
Masłowski D., Czubenko M.: System bezpieczeństwa dla współpracującego robota przemysłowego na bazie kamer głębi// Pomiary Automatyka Robotyka -Vol. 23,iss. 4 (2019), s.41-46
DOI:
Digital Object Identifier (open in new tab) 10.14313/par_234/41
Bibliography: test
  1. Kulik J., Wojtczak Ł., Bezpieczna interakcja człowieka z robo- tem -realna potrzeba czy chwilowy trend wśród krajowych MSP, "Pomiary Automatyka Robotyka", R. 22, Nr 1, 2018, 67-74, DOI: 10.14313/PAR_227/67. open in new tab
  2. Kowalczuk Z., Czubenko M., Computational approaches to modeling artificial emotion-an overview of the proposed solutions, "Frontiers in Robotics and AI, 21, 2016, DOI: 10.3389/frobt.2016.00021. open in new tab
  3. Colgate JE., Peshkin M.A., Cobots, US Patent 5,952,796, 1999.
  4. IFR International Federation of Robotics, Demystifying Collaborative Industrial Robots, 2018. open in new tab
  5. Michalos G., Makris S., Tsarouchi P., Guasch T., Kon- tovrakis D., Chryssolouris G., Design Considerations for Safe Human-robot Collaborative Workplaces, "Procedia CIRP", Vol. 37, 2015, 248-253, DOI: 10.1016/j.procir.2015.08.014. open in new tab
  6. Long P., Chevallereau C., Chablat D., Girin A., An industrial security system for human-robot coexistence, "Industrial Robot: An International Journal", Vol. 45, No. 2, 2018, 220-226, DOI: 10.1108/IR-09-2017-0165. open in new tab
  7. Kowalczuk Z., Czubenko M., Intelligent decision-making sys- tem for autonomous robots, "International Journal of Applied Mathematics and Computer Science", Vol. 21, No. 4, 2011, 671-684, DOI: 10.2478/v10006-011-0053-7. open in new tab
  8. Cobotsguide, Cobot Comparison Chart, 2019.
  9. Yen S.-H., Tang P.-C., Lin Y.-C., Lin C.-Y., Development of a Virtual Force Sensor for a Low-Cost Collaborative Robot and Applications to Safety Control, "Sensors", Vol. 19, No. 11, 2019, DOI: 10.3390/s19112603. open in new tab
  10. Albu-Schäffer A., Haddadin S., Ott C., Stemmer A., Wim- böck T., Hirzinger G., The DLR lightweight robot: design and control concepts for robots in human environments, "Indus- trial Robot: An International Journal", Vol. 5, 2007, 376-385, DOI: 10.1108/01439910710774386. open in new tab
  11. Popov D., Klimchik A., Mavridis N., Collision detection, localization & classification for industrial robots with joint torque sensors, [in:] 26 th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), IEEE, 2017, 838-843, DOI: 10.1109/ROMAN.2017.8172400. open in new tab
  12. Halme R.-J., Lanz M., Kämäräinen J., Pieters R., Latokar- tano J., Hietanen A., Review of vision-based safety systems for human-robot collaboration, "Procedia CIRP", Vol. 72, 2018, 111-116, DOI: 10.1016/j.procir.2018.03.043. open in new tab
  13. Winkler A., Suchý J., Vision based collision avoidance of industrial robots, "IFAC Proceedings Volumes", Vol. 44, No. 1, 2011, 9452-9457, DOI: 10.3182/20110828-6-IT-1002.00472. open in new tab
  14. Kaldestad K.B., Haddadin S., Belder R., Hovland G., Anisi D.A., Collision avoidance with potential fields based on paral- lel processing of 3D-point cloud data on the GPU, [in:] Inter- national Conference on Robotics and Automation (ICRA), IEEE, 2014, 3250-3257, DOI: 10.1109/ICRA.2014.6907326. open in new tab
  15. Yang S., Xu W., Liu Z., Zhou Z., Pham D.T., Multi-source vision perception for human-robot collaboration in man- ufacturing, [in:] 15th International Conference on Net- working, Sensing and Control (ICNSC), IEEE, 2018, 1-6, DOI: 10.1109/ICNSC.2018.8361333. open in new tab
  16. Saveriano M., Lee D., Distance based dynamical system modulation for reactive avoidance of moving obstacles, [in:] International Conference on Robotics and Automa- tion (ICRA), IEEE, 2014, 5618-5623, DOI: 10.1109/ICRA.2014.6907685. open in new tab
  17. Ahmad R., Plapper P., Human-Robot Collaboration: Two- fold strategy algorithm to avoid collisions using ToF sensor, Bibliografia open in new tab
  18. Eurostat (2019): Job vacancies between 2017 and 2019. open in new tab
  19. Dhiraj A.B., Countries with the Most Industrial Robots per 10,000 Employees, "Ceoworld Magazine", 14. 03. 2018. open in new tab
  20. Kowalczuk Z., Czubenko M., Przegląd robotów humanoidalnych, "Pomiary Automatyka Robotyka", R. 19, Nr 4, 2015, 33-42, DOI: 10.14313/PAR_218/33. "International Journal of Materials, Mechanics and Manu- facturing", Vol. 4, No. 2, 2015, 144-147, DOI: 10.7763/IJMMM.2016.V4.243. open in new tab
  21. Varhegyi T., Melik-Merkumians M., Steinegger M., Halmet- schlager-Funek G., Schitter G., A Visual Servoing Approach for a Six Degrees-of-Freedom Industrial Robot by RGB-D Sensing, "Automation and Robotics", 2017, DOI: 10.3217/978-3-85125-524-9-14. open in new tab
  22. Grunnet-Jepsen A., Winer P., Takagi A., Sweetser J., Zhao K., Khuong T., Nie D., Woodfill J., Using the Intel RealSense Depth cameras D4xx in Multi-Camera Configurations. Intel.
  23. Stefańczyk M., Kornuta T., Akwizycja obrazów RGBD: metody, "Pomiary Automatyka Robotyka", R. 18, Nr 1, 2014, 82-90, DOI: 10.14313/PAR_203/82. open in new tab
  24. Kowalczuk Z., Merta T., Wizualizacja obrazu stereowizyjnego w systemie VISROBOT, "Pomiary Automatyka Kontrola", R. 60, Nr 10, 2014, 803-808.
  25. Kowalczuk Z., Merta T., Three-dimensional mapping for data collected using variable stereo baseline, [in:] 21st Inter- national Conference on Methods and Models in Automa- tion and Robotics (MMAR), IEEE, 2016, 1082-1087, DOI: 10.1109/MMAR.2016.7575288. open in new tab
  26. Merta T., Odwzorowanie obiektów ograniczonego środowi- ska na trójwymiarowej mapie cyfrowej z wykorzystaniem robotów mobilnych zaopatrzonych w stereowizje, Praca dok- torska, Politechnika Gdańska, Gdańsk 2019.
  27. Redmon J., Farhadi A., YOLOv3: An incremental improve- ment, "arXiv preprint arXiv:1804.02767", 2018. open in new tab
  28. Cao Z., Hidalgo G., Simon T., Wei S.-E., Sheikh Y., OpenPose: realtime multi-person 2D pose estimation using Part Aff- nity Fields, "arXiv preprint arXiv:1812.08008", 2018. open in new tab
Verified by:
Gdańsk University of Technology

seen 75 times

Recommended for you

Meta Tags