Abstract
Generatywne systemy sztucznej inteligencji (SI) są w stanie tworzyć treści medialne poprzez zastosowanie uczenia maszynowego do dużych ilości danych szkoleniowych. Te nowe dane mogą obejmować tekst (np. Bard firmy Google, LLaMa firmy Meta lub ChatGPT firmy OpenAI) oraz elementy wizualne (np. Stable Diffusion lub DALL-E OpenAI) i dźwięk (np. VALL-E firmy Micro- soft). Stopień zaawansowania tych treści może czynić je nieodróżnialnymi od twórczości człowieka. Chatboty cechują się jednak tzw. halucynacjami, które w istotnej części są nowym rodzajem dezinformacji. Celem podjętych badań jest identyfikacja głównych nurtów debaty poświęconej skutkom wykorzystania sztucznej inteligencji ze szczególnym uwzględnieniem dezinformacji z udziałem chatbotów w środowisku mediów. W badaniu przyjęto metodę badawczą systematycznego przeglądu literatury ograniczającą m.in. błąd selekcji. Interpretacja głównych nurtów debaty skłania do wniosku, że dezinformacja chatbotów w postaci ich halucynacji jest znacząca pod względem skali, jest optymalizowana i personalizowana oraz ma istotny potencjał erodowania zaufania społecznego.
Citations
-
0
CrossRef
-
0
Web of Science
-
0
Scopus
Authors (3)
Cite as
Full text
- Publication version
- Accepted or Published Version
- DOI:
- Digital Object Identifier (open in new tab) 10.18290/rns2024.0009
- License
- open in new tab
Keywords
Details
- Category:
- Articles
- Type:
- artykuły w czasopismach
- Published in:
-
Roczniki Nauk Społecznych
no. 52,
pages 165 - 185,
ISSN: 0137-4176 - Language:
- Polish
- Publication year:
- 2024
- Bibliographic description:
- Kreft J., Boguszewicz-kreft M., Cyrek B.: Halucynacje chatbotów a prawda: główne nurty debaty i ich interpretacje// Roczniki Nauk Społecznych -Vol. 52,iss. 1 (2024), s.165-185
- DOI:
- Digital Object Identifier (open in new tab) 10.18290/rns2024.0009
- Sources of funding:
-
- Free publication
- Verified by:
- Gdańsk University of Technology
seen 218 times