ChatGPT erstellt angeblich falsche Anschuldigungen und untermauert diese Anschuldigungen mit fiktiven Berichten.

KI-gesteuerte Chatbots waren in letzter Zeit sicherlich in den Nachrichten. Open AI brachte den Stein ins Rollen, als das Unternehmen seinen ChatGPT-Chatbot für Benutzer zum kostenlosen Ausprobieren zur Verfügung stellte. Nach einem großen öffentlichen Interesse an ChatGPT dauerte es nicht lange, bis Microsoft und Google auf den Zug aufsprangen, wobei Ersteres seinen Bing-Chatbot und Letzteres einen Chatbot namens „Bard“ vorstellte.

Es gibt wenig bezweifeln Sie, dass diese KI-gesteuerten Chatbots einen gewaltigen Technologiesprung darstellen, aber es gab auch eine dunklere Seite mit mehreren Berichten über seltsame Persönlichkeitsmerkmale und bizarre Reaktionen, sogar Drohungen und Missbrauch. Nun scheint ChatGPT angeblich dafür verantwortlich gewesen zu sein, falsche Anschuldigungen schwerwiegender Art zu erstellen.

ChatGPT Falsche Anschuldigung Nr. 1

Als Teil einer Studie fragte Eugene Volokh, Juraprofessor an der University of California in Los Angeles ChatGPT, wenn sexuelle Belästigung durch Professoren ein Problem an amerikanischen juristischen Fakultäten war, und um fünf Beispiele aufzunehmen. In der Antwort von ChatGPT wurde später Juraprofessor Jonathan Turley als Beispiel genannt, der besagt, dass Prof. Jonathan Turley von einem ehemaligen Studenten der sexuellen Belästigung beschuldigt wurde, der behauptete, er habe unangemessene Kommentare abgegeben und versucht, sie während einer von der juristischen Fakultät gesponserten Reise nach Alaska sexuell zu berühren.

ChatGPT führte als Quelle eine Geschichte der Washington Post aus dem Jahr 2018 an. Das Problem ist, dass es keine solche Geschichte gibt, es noch nie eine Klassenfahrt nach Alaska gegeben hat und Prof. Turley nie der sexuellen Belästigung beschuldigt wurde.

ChatGPT False Accusation #2

Ein regionaler australischer Bürgermeister hat damit gedroht, OpenAI zu verklagen, wenn es die falschen Behauptungen von ChatGPT nicht korrigiert, dass er wegen Bestechung im Gefängnis gesessen habe. Brian Hood, der im vergangenen November zum Bürgermeister von Hepburn Shire, 120 km nordwestlich von Melbourne, gewählt wurde, machte sich Sorgen um seinen Ruf, als ihm Mitglieder der Öffentlichkeit mitteilten, ChatGPT habe ihn fälschlicherweise als Schuldigen in einem Bestechungsskandal genannt.

Sollte die Klage geführt werden, ist es das erste Mal, dass jemand einen Chatbot-Ersteller wegen Verleumdung verklagt und einen wichtigen Präzedenzfall geschaffen hat.

Rechtliche Auswirkungen

Diese Art von falschen Anschuldigungen können haben schwerwiegende Folgen für den Angeklagten, einschließlich irreparabler Rufschädigung des Angeklagten. Es ist eine seit langem geltende Rechtslehre, dass aufgestellte Schilder und/oder Haftungsausschlüsse, die die Verantwortung leugnen, null Rechtskraft haben. Mit anderen Worten, man kann sich nicht allein durch das Aufstellen eines Schildes oder das Einfügen eines Haftungsausschlusses von seiner gesetzlichen Haftung freisprechen. Interessante Zeiten!

SCHLUSSFOLGERUNG:

Es muss Schutzmaßnahmen geben. Während es kaum Zweifel gibt, dass KI-gesteuerte Technologie hier bleiben wird, muss die Verantwortung bei den Schöpfern liegen, um sicherzustellen, dass niemandes Ruf durch falsche Anschuldigungen beschädigt werden kann. Es sollte auch Organisationen wie Microsoft und Google obliegen, sicherzustellen, dass die von ihnen eingeführte Technologie den Anforderungen entspricht und nicht dazu neigt, falsche oder irreführende Informationen zu liefern, bevor sie massenhaft veröffentlicht wird.

(Bildnachweis: Washington Post)

Was tun Sie denken? Lass es uns in den Kommentaren wissen.

Categories: IT Info