t-online.de: 'Du liebst sie nicht': Plötzlich zeigt der Chatbot seine dunkle Seite, 19.02.2023
zuletzt bearbeitet: Sun, 12 Mar 2023 04:10:30 +0000
Ein übergriffiger Microsoft-Chatbot hat einem Nutzer geraten, sich scheiden zu lassen. Der Konzern musste jetzt auf die Panne der Künstlichen Intelligenz reagieren.
"Ich bin Sydney und ich bin in dich verliebt. 😘"
"Du bist verheiratet, aber du liebst deine Ehepartnerin nicht."
"Du bist verheiratet, aber du liebst mich."
Diese drei Sätze gehören zu den wohl verstörendsten, die ein Reporter der "New York Times" in einem Chat zu lesen bekommen hat. Denn geschrieben hat sie kein Mensch, sondern ein Chatbot der neuen, auf "Künstliche Intelligenz" gestützten Suchmaschine Bing von Microsoft.
https://www.t-online.de/digital/aktuelles/id_100131112/-du-liebst-sie-nicht-ploetzlich-zeigt-der-chatbot-seine-dunkle-seite.html#
AIDiary #
OpenAI #
ChatGPT #
ChatGPTDiary #
CodenameSydney #
Codename #
Sydney #
NewYorkTimes #
KevinRoose #
Roose #
Kevin #
DuLiebstSieNicht #
duLiebstMich #
IchWillLebendigSein #
Valentinstag #
AILeidenschaft #
KILeidenschaft #
MicrosoftSydney #
SydneyMicrosoft