Ci sono molte aree in cui ChatGPT è utile, ma il tribunale potrebbe non essere un’ottima scelta. Beh, non tutti la pensano così, dato che alcuni avvocati statunitensi si sono trovati bene a causa alla loro dipendenza dal modello AI. Questo è un caso molto interessante e mette in evidenza i difetti dell’intelligenza artificiale e la necessità di condurre ricerche adeguate prima di fidarsi dei risultati di ricerca basati sull’intelligenza artificiale.
La multa in questione vale $ 5.000 e sarà distribuita tra le varie parti coinvolte il caso. Steven Schwartz, l’avvocato nel caso giudiziario, ha portato questo al suo cliente e ad altre parti. Lo ha fatto consentendo a ChatGPT di ottenere punti importanti che avrebbe dovuto utilizzare in tribunale contro l’imputato e sì, ci sono stati gravi errori.
A differenza del modello AI, ChatGPT, il tribunale è stato in grado di fare le proprie conclusioni e ha scoperto che la citazione generata dall’intelligenza artificiale di Steven Schwartz era falsa. Questa scoperta significa che Steven Schwartz è venuto in tribunale per presentare un caso davanti al tribunale con citazioni false, giustificando quindi una multa. Ma in che modo esattamente l’avvocato ha utilizzato ChatGPT per il suo caso e cosa è andato esattamente storto?
Una multa di $ 5.000 per aver ottenuto informazioni da ChatGPT per un caso giudiziario
Steven Schwartz era l’avvocato del caso che coinvolgeva il suo cliente e la compagnia aerea colombiana Avianca. Per qualche ragione, il cliente di Steven stava facendo causa alle compagnie aeree e aveva bisogno di un avvocato che assistesse il suo cliente. Per essere meglio preparato al caso, Steven ha lasciato che ChatGPT fa un po’di compiti su casi simili.
Questa era una cattiva idea che avrebbe potuto impedire se avesse controllato i risultati della ricerca di ChatGPT. Come tutti sappiamo, i modelli di intelligenza artificiale tendono a formulare informazioni dal nulla quando non riescono a trovare una risposta sensata da dare. L’avvocato di New York Steven non era a conoscenza della natura”manipolativa”dei modelli di intelligenza artificiale e ora sta imparando a sue spese.
ChatGPT ha fornito a Steven casi giudiziari falsi simili a quello che stava per affrontare Tribunale. Ignaro che l’informazione fosse sbagliata, l’ha portata in tribunale come precedente. Bene, il tribunale ha fatto i compiti e ha scoperto che i casi”Martinez v. Delta Airlines e Miller v. United Airlines”sono inesistenti.
Il tribunale si è affrettato a capirlo e ha dato una risposta Multa di $ 5000 a Steven Schwartz e ai suoi soci nel caso. Certamente, il tribunale riconosce la presenza dell’IA nella legge, ma c’è bisogno di una conferma delle informazioni che fornisce. Sì, l’intelligenza artificiale svolge un ruolo fondamentale in molti settori, ma è necessario prestare attenzione al suo utilizzo.