ChatGPT, ein von OpenAI trainierter Chatbot für künstliche Intelligenz, beschuldigte den prominenten Strafverteidiger und Rechtsprofessor Jonathan Turley fälschlicherweise der sexuellen Belästigung.

Der Chatbot bildete eine Washington Veröffentlichen Sie einen Artikel über eine Reise der juristischen Fakultät nach Alaska, bei der Turley beschuldigt wurde, sexuell provozierende Äußerungen gemacht und versucht zu haben, einen Studenten zu berühren, obwohl Turley noch nie auf einer solchen Reise gewesen war.

Turleys Ruf erlitt einen großen Schlag nachdem diese schädlichen Behauptungen in den sozialen Medien schnell viral wurden.

„Es war eine Überraschung für mich, da ich noch nie mit Studenten nach Alaska gereist bin, die Post nie einen solchen Artikel veröffentlicht hat und mir noch nie jemand sexuelle Belästigung oder Übergriffe vorgeworfen hat, “, sagte er.

Nachdem Turley eine E-Mail von einem Rechtsprofessor erhalten hatte, der ChatGPT verwendet hatte, um Fälle von sexueller Belästigung durch Akademiker an amerikanischen juristischen Fakultäten zu recherchieren, erfuhr Turley von den Vorwürfen.

Professor Jonthan Turley wurde von KI-gestütztem ChatGPT fälschlicherweise der sexuellen Belästigung beschuldigt. Bild: Getty Images

Die Notwendigkeit zur Vorsicht bei der Nutzung von KI-generierten Daten

In seinem Blog sagte der Professor der George Washington University:

„Gestern hat Präsident Joe Biden erklärt, dass ‚es abzuwarten bleibt‘, ob künstliche Intelligenz ‚gefährlich‘ ist. Da bin ich anderer Meinung …“

Als Ergebnis seiner Erfahrung wurden Bedenken hinsichtlich der Zuverlässigkeit von ChatGPT und der Wahrscheinlichkeit zukünftiger Fälle wie dem von Turley geäußert. Der Chatbot wird von Microsoft betrieben, das, wie das Unternehmen sagte, Upgrades implementiert hat, um die Genauigkeit zu verbessern.

Ist ChatGPT halluzinierend?

Wenn KI Ergebnisse liefert, die es sind unerwartet, falsch und nicht durch Beweise aus der realen Welt gestützt, wird gesagt, dass es „Halluzinationen“ hat.

Falsche Inhalte, Nachrichten oder Informationen über Personen, Ereignisse oder Tatsachen können aus diesen Halluzinationen resultieren. Fälle wie der von Turley zeigen die weitreichenden Auswirkungen der Verbreitung von KI-generierten Unwahrheiten in Medien und sozialen Netzwerken.

Die Entwickler von ChatGPT, OpenAI, haben die Notwendigkeit erkannt, die Öffentlichkeit über die Grenzen von KI-Tools aufzuklären und verringern Sie die Möglichkeit, dass Benutzer solche Halluzinationen erleben.

Die Versuche des Unternehmens, seinen Chatbot genauer zu machen, werden geschätzt, aber es muss noch mehr getan werden, um sicherzustellen, dass so etwas nicht wieder vorkommt.

Der Vorfall hat auch die Aufmerksamkeit auf den Wert einer ethischen KI-Nutzung und die Notwendigkeit eines tieferen Verständnisses ihrer Grenzen gelenkt.

Menschliche Aufsicht erforderlich

Obwohl KI das Potenzial hat, viele Aspekte unseres Lebens erheblich zu verbessern, ist sie immer noch nicht perfekt und muss von Menschen überwacht werden, um Genauigkeit und Zuverlässigkeit zu gewährleisten.

Da künstliche Intelligenz immer mehr in unseren Alltag integriert wird Leben, ist es entscheidend, dass wir beim Einsatz solcher Technologien Vorsicht und Verantwortlichkeit walten lassen.

Turleys Begegnung mit ChatGPT unterstreicht, wie wichtig es ist, beim Umgang mit KI-generierten Inkonsistenzen und Irrtümern Vorsicht walten zu lassen.

Es ist von entscheidender Bedeutung, dass wir sicherstellen, dass diese Technologie ethisch und verantwortungsbewusst eingesetzt wird, im Bewusstsein ihrer Stärken und Schwächen, da sie unsere Umwelt weiterhin verändert.

Die Krypto-Gesamtmarktkapitalisierung bleibt auf dem Wochenend-Chart unter TradingView.com

Unterdessen hat das Unternehmen laut Katy Asher, Senior Communications Director von Microsoft, seitdem Schritte unternommen, um die Genauigkeit seiner Plattform sicherzustellen.

Turley schrieb als Antwort in seinem Blog:

„Sie können von KI diffamiert werden und diese Unternehmen werden nur mit den Schultern zucken und sagen, dass sie versuchen, ehrlich zu sein. ”

Jake Moore, Global Cybersecurity Advisor bei ESET, warnte ChatGPT-Benutzer davor, alles zu tun, um die schädliche Verbreitung von Fehlinformationen zu verhindern.

-Empfohlenes Bild von Bizsiziz

Categories: IT Info