Es gibt viele Bereiche, in denen ChatGPT hilfreich ist, aber das Gerichtsgebäude ist möglicherweise keine gute Wahl. Nun, nicht jeder denkt so, da einige US-Anwälte eine Geldstrafe verhängt haben zu ihrer Abhängigkeit vom KI-Modell. Dies ist ein sehr interessanter Fall, der die Mängel der KI und die Notwendigkeit einer gründlichen Recherche verdeutlicht, bevor man KI-Suchergebnissen vertraut.

Die fragliche Geldbuße beträgt 5.000 US-Dollar und wird auf verschiedene beteiligte Parteien aufgeteilt der Fall. Steven Schwartz, der Anwalt im Gerichtsverfahren, brachte dies seinem Mandanten und anderen Parteien vor. Er tat dies, indem er ChatGPT wichtige Argumente überließ, die er vor Gericht gegen den Angeklagten verwenden konnte, und ja, es gab schwerwiegende Fehler.

Im Gegensatz zum KI-Modell ChatGPT war das Gericht in der Lage, seine Feststellungen zu treffen und stellte fest, dass die KI-generierte Zitierung von Steven Schwartz falsch war. Diese Feststellung bedeutet, dass Steven Schwartz vor Gericht kam, um dem Gericht einen Fall mit falschen Zitaten vorzulegen, was eine Geldstrafe rechtfertigte. Aber wie genau hat der Anwalt ChatGPT für seinen Fall genutzt und was genau ist schief gelaufen?

Eine Geldstrafe von 5.000 US-Dollar für die Enthüllung von Fakten aus ChatGPT für ein Gerichtsverfahren

Steven Schwartz war der Anwalt in dem Fall, an dem sein Mandant beteiligt war und die kolumbianische Fluggesellschaft Avianca. Aus irgendeinem Grund verklagte Stevens Mandant die Fluggesellschaften und brauchte einen Anwalt, der seinen Mandanten unterstützte. Um besser auf den Fall vorbereitet zu sein, ließ Steven ChatGPT macht einige Hausaufgaben zu ähnlichen Fällen.

Das war eine schlechte Idee, die er hätte verhindern können, wenn er die ChatGPT-Suchergebnisse überprüft hätte. Wie wir alle wissen, neigen KI-Modelle dazu, Informationen aus dem Nichts zu formulieren, wenn sie keine vernünftige Antwort finden. Der New Yorker Anwalt Steven war sich der „manipulativen“ Natur von KI-Modellen nicht bewusst, und jetzt muss er es auf die harte Tour lernen.

ChatGPT hat Steven gefälschte Gerichtsverfahren vorgelegt, die denen ähnelten, mit denen er konfrontiert werden sollte Gericht. Da er nicht wusste, dass die Informationen falsch waren, verklagte er sie als Präzedenzfall vor Gericht. Nun, das Gericht hat seine Hausaufgaben gemacht und herausgefunden, dass die Fälle „Martinez gegen Delta Airlines und Miller gegen United Airlines“ nicht existieren.

Das Gericht hat dies schnell herausgefunden und eine Antwort gegeben 5.000 US-Dollar Strafe für Steven Schwartz und seine Mitarbeiter in diesem Fall. Sicherlich erkennt das Gericht das Vorhandensein von KI im Gesetz an, es besteht jedoch Bedarf an einer Bestätigung der von ihr gemachten Angaben. Ja, KI spielt in vielen Branchen eine wichtige Rolle, aber bei ihrem Einsatz muss man vorsichtig sein.

Categories: IT Info