AnKap93 on Nostr: "Nur 16 Stunden später musste "Tay" vom Netz genommen werden – er hatte sich ...
"Nur 16 Stunden später musste "Tay" vom Netz genommen werden – er hatte sich negativ über Rassismus und Extremismus geäußert und unter anderem getwittert:
"Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump". (...)
In den vergangenen Tagen fiel nun allerdings der Bing-Chatbot selbst mit Patzern auf: So hatte der Chatbot gegenüber einem Reporter der "New York Times" behauptet, dass er den Journalisten liebe. Außerdem solle sich der Reporter von seiner Frau trennen. Einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten "Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren"."
https://www.stern.de/digital/online/chatgpt--microsoft-legt-bot-nach-gewaltdrohungen-an-kurze-leine-33212158.html Published at
2023-02-23 16:55:14Event JSON
{
"id": "cbe7ffda693ac151640304d34831c4316a47a0428f1b4e56ae65866a78c517ba",
"pubkey": "79d206fb6ef27d052b87dd7e3a819eff67711b351bcbf39d7a8b8259289e6078",
"created_at": 1677171314,
"kind": 1,
"tags": [],
"content": "https://s20.directupload.net/images/230223/cmlv954a.jpg\n\n\"Nur 16 Stunden später musste \"Tay\" vom Netz genommen werden – er hatte sich negativ über Rassismus und Extremismus geäußert und unter anderem getwittert:\n\n\"Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump\". (...)\n\nIn den vergangenen Tagen fiel nun allerdings der Bing-Chatbot selbst mit Patzern auf: So hatte der Chatbot gegenüber einem Reporter der \"New York Times\" behauptet, dass er den Journalisten liebe. Außerdem solle sich der Reporter von seiner Frau trennen. Einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten \"Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren\".\"\n\nhttps://www.stern.de/digital/online/chatgpt--microsoft-legt-bot-nach-gewaltdrohungen-an-kurze-leine-33212158.html\n\n",
"sig": "c663e21f8a76d289905d5bffe90a0f667e2d941dd51a01fae4b0e89fc79996cd5ee7934373ccac29125594fd7e770f519c89cddeee054410b082c439b0d851d0"
}