Een van de problemen met conversationele AI-chatbots in dit stadium is dat ze de neiging hebben te hallucineren. Met andere woorden, ze verzinnen informatie die past bij het verzoek van de gebruiker. ChatGPT is een taalmodel dat is ontworpen om de gebruiker een antwoord op een vraag te geven en daarbij zal de AI-chatbot met informatie komen om eventuele leemten op te vullen, zelfs als wat hij bedenkt niet waar is.

The New York Times (via Mashable) rapporteerde over een advocaat genaamd Steven Schwartz van Levidow, Levidow & Oberman die 30 jaar als advocaat heeft gewerkt. Maar dankzij ChatGPT kon Schwartz op zoek gaan naar een nieuw beroep. Zie je, Schwartz vertegenwoordigde een cliënt genaamd Roberto Mata die de Colombiaanse luchtvaartmaatschappij Avianca aanklaagde nadat zijn knie gewond was geraakt door een serveerwagen die tijdens een vlucht tegen hem aan botste.

De beslissing van Schwartz om ChatGPT te gebruiken zou kostte hem zijn 30-jarige juridische carrière

Avianca probeerde een rechter zover te krijgen de zaak te seponeren en Mata’s advocaten, waaronder Schwartz, dienden een brief in met soortgelijke zaken die in de rechtbank werden behandeld in een poging om aan de rechter te bewijzen dat de zaak niet moet worden afgewezen. Maar dit is waar ChatGPT en Schwartz het verprutst hebben. Schwartz diende de zaak in toen deze voor het eerst bij de staatsrechtbank belandde en leverde het juridische onderzoek toen deze werd overgedragen aan de federale rechtbank in Manhattan.

Een advocaat gebruikte ChatGPT om”juridisch onderzoek”te doen en noemde een aantal niet-bestaande zaken in een aanvraag ingediend en heeft nu veel problemen met de rechter pic.twitter.com/AJSE7Ts7W7

— Daniel Feldman (@d_feldman) 27 mei 2023

Om zijn dossier te verbeteren, wendde Schwartz zich tot ChatGPT om hem te helpen soortgelijke zaken te vinden die voor de rechtbank kwamen. ChatGPT produceerde een lijst van deze zaken: Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines en Miller v. United Airlines.”Dat klinkt als een behoorlijke lijst van zaken die voor de rechter kunnen worden aangehaald. Er was slechts één heel klein probleempje; geen van die zaken waren echt! Ze zijn allemaal verzonnen door ChatGPT.

De advocaat heeft nooit dacht dat de AI-chatbot hem valse informatie kon geven

Avianca’s juridische team en de rechter realiseerden zich al snel dat ze geen van de zaken konden vinden die in het dossier van Schwartz werden genoemd. Schwartz, die bij de rechtbank was ingediend, voegde een screenshot toe van zijn interactie met ChatGPT en zei dat wat betreft de conversatie-AI-chatbot, hij”niet op de hoogte was van de mogelijkheid dat de inhoud ervan vals zou kunnen zijn”. maand om”mogelijke sancties”voor Schwartz te bespreken.

Laat dit een waarschuwing zijn voor iedereen die van plan is om AI een deel van hun werk voor hen te laten doen. Je zou kunnen denken dat je tijd bespaart, maar je zou meer problemen kunnen krijgen als je je eigen harde werk vervangt door resultaten van een AI-chatbot. Ik zou nooit willen dat mijn artikelen door AI worden geschreven en je doet jezelf niet alleen pijn door AI te gebruiken, je liegt ook tegen je publiek door te beweren dat je auteur bent van iets dat je niet hebt geschreven, of omdat je je publiek mogelijk voorzien van gemaakte-up informatie.

Het maakt niet uit of u een student bent die van plan is een AI-chatbot te gebruiken om u te helpen met een paper dat u moet schrijven of een advocaat die zaken wil citeren. AI-chatbots kunnen hallucineren en u valse informatie geven. Dat wil niet zeggen dat ze niet nuttig kunnen zijn en u misschien in de goede richting kunnen wijzen. Maar als het wijzen eenmaal is gedaan, is het aan jou om ervoor te zorgen dat de informatie die je verkrijgt legitiem is.

Categories: IT Info