Uno de los problemas con los chatbots conversacionales de IA en esta etapa es que tienden a alucinar. En otras palabras, componen información para ajustarse a la solicitud del usuario. ChatGPT es un modelo de lenguaje diseñado para dar al usuario una respuesta a una pregunta y, al hacerlo, el chatbot de IA generará información para llenar los vacíos, incluso si lo que obtiene no es cierto.

The New York Times (vía Mashable) informó sobre un abogado llamado Steven Schwartz de Levidow, Levidow & Oberman, quien ha trabajado como abogado durante 30 años. Pero gracias a ChatGPT, Schwartz podría encontrarse buscando una nueva profesión. Verá, Schwartz estaba representando a un cliente llamado Roberto Mata que estaba demandando a la aerolínea Avianca, con sede en Colombia, después de que un carrito de servicio lo golpeó en la rodilla durante un vuelo.

La decisión de Schwartz de usar ChatGPT podría le costó su carrera legal de 30 años

Avianca intentó que un juez desestimara el caso y los abogados de Mata-incluido Schwartz-presentaron un escrito que contenía casos similares que se escucharon en la corte en un intento probar al juez que el caso no debe ser sobreseído. Pero aquí es donde ChatGPT y Schwartz se equivocaron. Schwartz presentó el caso cuando llegó por primera vez a la corte estatal y proporcionó la investigación legal cuando se transfirió a la Corte Federal en Manhattan.

Un abogado usó ChatGPT para hacer”investigación legal”y citó varios casos inexistentes en una presentación y ahora tiene muchos problemas con el juez pic.twitter.com/AJSE7Ts7W7

— Daniel Feldman (@d_feldman) 27 de mayo de 2023

Buscando mejorar su presentación, Schwartz recurrió a ChatGPT para que lo ayudara a encontrar casos similares que llegaron a los tribunales. ChatGPT produjo una lista de estos casos: Varghese contra China Southern Airlines, Shaboon contra Egyptair, Petersen contra Iran Air, Martinez contra Delta Airlines, Estate of Durden contra KLM Royal Dutch Airlines y Miller contra United Airlines”. Eso suena como una lista decente de casos para citar al juez. Solo hubo un diminuto problema; ¡ninguno de esos casos era real! Todos fueron inventados por ChatGPT.

El abogado nunca consideró que el chatbot de IA podría darle información falsa

El equipo legal de Avianca y el juez rápidamente se dieron cuenta de que no podían encontrar ninguno de los casos citados en la presentación de Schwartz. presentado ante el tribunal, Schwartz incluyó una captura de pantalla de su interacción con ChatGPT y dijo que, en lo que respecta al chatbot conversacional de IA,”no estaba al tanto de la posibilidad de que su contenido pudiera ser falso”. mes para”discutir posibles sanciones”para Schwartz.

Que esto sea una advertencia para cualquiera que planee que AI haga parte del trabajo por ellos. Puede pensar que está ahorrando tiempo, pero podría terminar en más problemas si reemplaza su propio trabajo duro con los resultados de un chatbot de IA. Nunca me gustaría que mis artículos fueran escritos por IA y no solo te estás lastimando a ti mismo al usar IA, sino que le estás mintiendo a tu audiencia al reclamar la autoría de algo que no escribiste o porque posiblemente le estás proporcionando a tu audiencia algo hecho.-up information.

No importa si es un estudiante que planea usar un chatbot de IA para ayudarlo con un trabajo que necesita escribir o un abogado que busca citar casos. Los chatbots de IA pueden alucinar y darte información falsa. Eso no quiere decir que no puedan ser útiles y que puedan orientarlo en la dirección correcta. Pero una vez que se haya señalado, depende de usted asegurarse de que la información que está obteniendo sea legítima.

Categories: IT Info