Jednym z problemów z konwersacyjnymi chatbotami AI na tym etapie jest to, że mają one tendencję do halucynacji. Innymi słowy, tworzą informacje, aby dopasować je do żądania użytkownika. ChatGPT to model języka zaprojektowany, aby dać użytkownikowi odpowiedź na pytanie, a robiąc to, chatbot AI poda informacje, aby wypełnić wszelkie luki, nawet jeśli to, co wymyśli, nie jest prawdą.
The New York Times (przez Mashable) zgłosiło adwokata o nazwisku Steven Schwartz z Levidow, Levidow & Oberman, który od 30 lat pracuje jako adwokat. Ale dzięki ChatGPT Schwartz mógł znaleźć sobie nowy zawód. Widzisz, Schwartz reprezentował klienta o imieniu Roberto Mata, który pozwał kolumbijską linię lotniczą Avianca po tym, jak jego kolano zostało zranione przez wózek obsługujący, który uderzył w niego podczas lotu.
Decyzja Schwartza o użyciu ChatGPT mogła kosztowało go 30-letnią karierę prawniczą
Avianca próbowała skłonić sędziego do oddalenia sprawy, a prawnicy Maty – w tym Schwartz – złożyli akta zawierające podobne sprawy, które były rozpatrywane w sądzie, próbując aby udowodnić sędziemu, że sprawa nie powinna być oddalona. Ale tutaj ChatGPT i Schwartz spieprzyli sprawę. Schwartz złożył sprawę, gdy po raz pierwszy trafiła do sądu stanowego, i dostarczył analizę prawną, kiedy została przekazana do sądu federalnego na Manhattanie.
Prawnik użył ChatGPT do „badania prawnego” i przytoczył szereg nieistniejących spraw w zgłoszenie i ma teraz duże kłopoty z sędzią pic.twitter.com/AJSE7Ts7W7
— Daniel Feldman (@d_feldman) 27 maja 2023 r.
Chcąc ulepszyć swoje zgłoszenia, Schwartz zwrócił się do ChatGPT o pomoc w znalezieniu podobnych spraw, które trafiły do sądu. ChatGPT stworzyło listę tych spraw: Varghese przeciwko China Southern Airlines, Shaboon przeciwko Egyptair, Petersen przeciwko Iran Air, Martinez przeciwko Delta Airlines, Estate of Durden przeciwko KLM Royal Dutch Airlines i Miller przeciwko United Airlines. To brzmi jak przyzwoita lista spraw, które można przytoczyć sędziemu. Był tylko jeden mały problem; żadna z tych spraw nie była prawdziwa! Wszystkie zostały wymyślone przez ChatGPT.
Prawnik nigdy uznał, że chatbot AI może przekazać mu fałszywe informacje
Zespół prawny Avianki i sędzia szybko zdali sobie sprawę, że nie mogli znaleźć żadnej ze spraw wymienionych w zgłoszeniu Schwartza. W zeznaniu pod przysięgą on złożonego w sądzie, Schwartz załączył zrzut ekranu swojej interakcji z ChatGPT i powiedział, że jeśli chodzi o konwersacyjnego chatbota AI, „nie był świadomy możliwości, że jego treść może być fałszywa”. miesiąc, aby „omówić potencjalne sankcje” dla Schwartza.
Niech to będzie ostrzeżenie dla każdego, kto planuje, aby sztuczna inteligencja wykonywała za nich część pracy. Możesz myśleć, że oszczędzasz czas, ale możesz mieć więcej kłopotów, jeśli zastąpisz własną ciężką pracę wynikami chatbota AI. Nigdy nie chciałbym, aby moje artykuły były pisane przez sztuczną inteligencję i nie tylko szkodzisz sobie, używając sztucznej inteligencji, ale okłamujesz swoich odbiorców albo twierdząc, że jesteś autorem czegoś, czego nie napisałeś, albo dlatego, że prawdopodobnie dostarczasz swoim odbiorcom wykonane-up informacji.
Nie ma znaczenia, czy jesteś studentem planującym użyć chatbota AI do pomocy w napisaniu pracy, czy prawnikiem, który chce cytować sprawy. Chatboty AI mogą mieć halucynacje i przekazywać fałszywe informacje. Nie oznacza to, że nie mogą być przydatne i mogą wskazać właściwy kierunek. Ale po zakończeniu wskazywania do Ciebie należy upewnienie się, że informacje, które uzyskujesz, są zgodne z prawem.