L’un des problèmes des chatbots d’IA conversationnels à ce stade est qu’ils ont tendance à halluciner. En d’autres termes, ils constituent des informations pour répondre à la demande de l’utilisateur. ChatGPT est un modèle de langage conçu pour donner à l’utilisateur une réponse à une question et, ce faisant, le chatbot IA fournira des informations pour combler les vides, même si ce qu’il propose n’est pas vrai.
The New York Times (via Mashable) a rapporté un avocat nommé Steven Schwartz de Levidow, Levidow & Oberman qui a travaillé comme avocat pendant 30 ans. Mais grâce à ChatGPT, Schwartz pourrait se retrouver à la recherche d’un nouveau métier. Vous voyez, Schwartz représentait un client nommé Roberto Mata qui poursuivait la compagnie aérienne colombienne Avianca après que son genou a été blessé par un chariot de service qui l’a percuté pendant un vol.
La décision de Schwartz d’utiliser ChatGPT pourrait lui a coûté ses 30 ans de carrière juridique
Avianca a tenté de faire rejeter l’affaire par un juge et les avocats de Mata, dont Schwartz, ont soumis un mémoire contenant des affaires similaires qui ont été entendues au tribunal dans une tentative prouver au juge que l’affaire ne doit pas être rejetée. Mais c’est là que ChatGPT et Schwartz ont merdé. Schwartz a déposé l’affaire lorsqu’elle a atterri pour la première fois devant un tribunal d’État et a fourni les recherches juridiques lors de son transfert à la Cour fédérale de Manhattan. un dépôt, et a maintenant beaucoup de problèmes avec le juge pic.twitter.com/AJSE7Ts7W7
— Daniel Feldman (@d_feldman) 27 mai 2023
Cherchant à améliorer son dossier, Schwartz s’est tourné vers ChatGPT pour l’aider à trouver des affaires similaires qui ont été portées devant les tribunaux. ChatGPT a produit une liste de ces affaires : Varghese contre China Southern Airlines, Shaboon contre Egyptair, Petersen contre Iran Air, Martinez contre Delta Airlines, Estate of Durden contre KLM Royal Dutch Airlines et Miller contre United Airlines.”Cela ressemble à une liste décente de cas à citer au juge. Il n’y avait qu’un tout petit problème ; aucun de ces cas n’était réel ! Ils ont tous été inventés par ChatGPT.
L’avocat n’a jamais a estimé que le chatbot IA pouvait lui fournir de fausses informations
L’équipe juridique d’Avianca et le juge ont rapidement réalisé qu’ils ne pouvaient trouver aucun des cas cités dans le dossier de Schwartz. Dans un affidavit, il déposé auprès du tribunal, Schwartz a inclus une capture d’écran de son interaction avec ChatGPT et a déclaré qu’en ce qui concernait le chatbot d’IA conversationnel, il”ignorait la possibilité que son contenu puisse être faux”. mois pour”discuter de sanctions potentielles”pour Schwartz.
Que ceci soit un avertissement pour tous ceux qui envisagent de confier à l’IA une partie de leur travail. Vous pourriez penser que vous gagnez du temps, mais vous pourriez avoir plus de problèmes si vous remplacez votre propre travail acharné par les résultats d’un chatbot IA. Je ne voudrais jamais que mes articles soient écrits par l’IA et non seulement vous vous faites du mal en utilisant l’IA, mais vous mentez à votre public soit en revendiquant la paternité de quelque chose que vous n’avez pas écrit, soit parce que vous fournissez peut-être à votre public-up information.
Peu importe si vous êtes un étudiant prévoyant d’utiliser un chatbot IA pour vous aider avec un article que vous devez rédiger ou un avocat cherchant à citer des cas. Les chatbots IA peuvent halluciner et vous donner de fausses informations. Cela ne veut pas dire qu’ils ne peuvent pas être utiles et pourraient vous orienter dans la bonne direction. Mais une fois le pointage effectué, il vous appartient de vous assurer que les informations que vous obtenez sont légitimes.