Eines der Probleme mit Konversations-KI-Chatbots in dieser Phase besteht darin, dass sie zu Halluzinationen neigen. Mit anderen Worten: Sie stellen Informationen zusammen, die der Anfrage des Benutzers entsprechen. ChatGPT ist ein Sprachmodell, das entwickelt wurde, um dem Benutzer eine Antwort auf eine Frage zu geben. Dabei liefert der KI-Chatbot Informationen, um eventuelle Lücken zu füllen, auch wenn die Ergebnisse nicht wahr sind.
The New York Times (über Mashable) berichtete über einen Anwalt namens Steven Schwartz aus Levidow, Levidow & Oberman, der seit 30 Jahren als Anwalt tätig ist. Doch dank ChatGPT könnte Schwartz auf der Suche nach einem neuen Beruf sein. Schwartz vertrat nämlich einen Mandanten namens Roberto Mata, der die in Kolumbien ansässige Fluggesellschaft Avianca verklagte, nachdem sein Knie durch einen Servierwagen verletzt worden war, der während eines Fluges gegen ihn prallte.
Die Entscheidung von Schwartz, ChatGPT zu verwenden, könnte … kostete ihn seine 30-jährige Anwaltskarriere
Avianca versuchte, einen Richter dazu zu bringen, den Fall abzuweisen, und Matas Anwälte – darunter auch Schwartz – reichten einen Schriftsatz mit ähnlichen Fällen ein, die in einem Versuch vor Gericht verhandelt wurden um dem Richter zu beweisen, dass der Fall nicht abgewiesen werden sollte. Aber hier haben ChatGPT und Schwartz einen Fehler gemacht. Schwartz reichte den Fall ein, als er zum ersten Mal vor einem staatlichen Gericht landete, und lieferte die rechtlichen Recherchen, als er an das Bundesgericht in Manhattan weitergeleitet wurde.
Ein Anwalt nutzte ChatGPT, um „juristische Recherchen“ durchzuführen, und zitierte eine Reihe nicht existierender Fälle in eine Klage eingereicht und steckt nun in großen Schwierigkeiten mit dem Richter pic.twitter.com/AJSE7Ts7W7
– Daniel Feldman (@d_feldman) 27. Mai 2023
Um seine Akten zu verbessern, wandte sich Schwartz an ChatGPT, um ihm dabei zu helfen, ähnliche Fälle zu finden, die es vor Gericht schafften. ChatGPT hat eine Liste dieser Fälle erstellt: Varghese gegen China Southern Airlines, Shaboon gegen Egyptair, Petersen gegen Iran Air, Martinez gegen Delta Airlines, Estate of Durden gegen KLM Royal Dutch Airlines und Miller gegen United Airlines. Das klingt nach einer anständigen Liste von Fällen, die man dem Richter vorlegen kann. Es gab nur ein winziges Problem; keiner dieser Fälle war real! Sie wurden alle von ChatGPT erfunden.
Der Anwalt nie war der Ansicht, dass der KI-Chatbot ihm gefälschte Informationen geben könnte
Aviancas Rechtsteam und der Richter stellten schnell fest, dass sie keinen der in Schwartz‘ Unterlagen angeführten Fälle finden konnten. In einer eidesstattlichen Erklärung erklärte er Dem beim Gericht eingereichten Antrag fügte Schwartz einen Screenshot seiner Interaktion mit ChatGPT bei und sagte, dass er sich in Bezug auf den Konversations-KI-Chatbot „nicht der Möglichkeit bewusst war, dass sein Inhalt falsch sein könnte.“ Der Richter hat für die nächste Anhörung eine Anhörung angesetzt Monat, um „mögliche Sanktionen“ für Schwartz zu besprechen.
Dies soll eine Warnung für alle sein, die vorhaben, KI einen Teil ihrer Arbeit für sie erledigen zu lassen. Sie denken vielleicht, dass Sie Zeit sparen, aber Sie könnten noch mehr Ärger bekommen, wenn Sie Ihre eigene harte Arbeit durch Ergebnisse eines KI-Chatbots ersetzen. Ich möchte niemals, dass meine Artikel von KI geschrieben werden, und Sie schaden sich nicht nur selbst, indem Sie KI verwenden, Sie lügen auch Ihr Publikum an, indem Sie entweder die Urheberschaft für etwas beanspruchen, das Sie nicht geschrieben haben, oder weil Sie Ihrem Publikum möglicherweise etwas Gemachtes zur Verfügung stellen-Up-Informationen.
Es spielt keine Rolle, ob Sie ein Student sind, der einen KI-Chatbot verwenden möchte, um Ihnen bei einer Arbeit zu helfen, die Sie schreiben müssen, oder ein Anwalt, der Fälle zitieren möchte. KI-Chatbots können halluzinieren und Ihnen falsche Informationen liefern. Das heißt nicht, dass sie nicht nützlich sein können und Sie möglicherweise in die richtige Richtung weisen können. Aber sobald die Weitergabe erfolgt ist, liegt es an Ihnen, sicherzustellen, dass die Informationen, die Sie erhalten, legitim sind.