Meiner Meinung nach gibt es keine wissenschaftliche Grundlage dafür zu behaupten, dass ChatGPT "halluzinieren" kann. Es scheint, als würde diese Zuschreibung von vielen Wissenschaftsjournalisten einfach übernommen, ohne ausreichend zu prüfen, ob es wirklich zutreffend ist.
https://realtime.fyi/articles/nmoplus/chatgpt-verantwortung-fuer-kontraproduktives-verhalten-der-maschine-traegt-der-mensch, 30.03.2023
Da Thema "ChatGPT: Verantwortung für kontraproduktives Verhalten der Maschine trägt der Mensch" wurde durch die Diskussion des Interviews
"Wie funktioniert Künstliche Intelligenz? Ein Gespräch mit Ranga Yogeshwar über ChatGPT und die Folgen (1)", das von MICHAEL KNOCHE geführt wurde, inspiriert. Beim Verfassen des Artikels wurde mir bewusst, dass eine gemeinnützige Sprachmodell-Infrastruktur
hunemoL
(The
humanity
need
more
Language Modells!), die auf einer Kooperation ähnlich der Kooperation von Wikipedia-Autoren basiert, dafür sorgen kann, dass
hunemoL den Nutzer:innen Ergebnisse in einer angemessenen Qualität liefert.
#
Halluzination #
halluzinieren #
ChatGPThalluziniert #
kontraproduktivesVerhalten #
Qualitätssicherung #
Wissenschaftsjournalistinnen #
Wissenschaftsjournalist #
Wissenschaftsjournalistin #
FeedbackButton #
Feedback #
ChatGPTDiary #
chatGPT #
JanusRose #
TechScharlatane #
RangaYogeshwar #
EvaWolfangel #
TechScharlatane #
Prompt #
ChatGPTPrompt #
PromptChatGPT #
PromptEngineering