ChatGPT supuestamente está creando acusaciones falsas y respaldando esas acusaciones con informes ficticios.

Los chatbots impulsados ​​por IA ciertamente han estado en las noticias últimamente. Open AI comenzó a rodar cuando la empresa puso su chatbot ChatGPT a disposición de los usuarios para que lo probaran de forma gratuita. Después de un gran interés público en ChatGPT, Microsoft y Google no tardaron en subirse al tren: el primero presentó su chatbot Bing y el segundo, un chatbot denominado”Bard”.

Hay poco Dudo que estos chatbots impulsados ​​por IA representen un salto tecnológico impresionante, pero también ha habido un lado más oscuro con múltiples informes de rasgos de personalidad extraños y respuestas extrañas, incluso amenazas y abuso. Ahora, al parecer, ChatGPT supuestamente ha sido responsable de crear acusaciones falsas de naturaleza grave.

ChatGPT Acusación falsa #1

Como parte de un estudio, Eugene Volokh, profesor de derecho en la Universidad de California en Los Ángeles, preguntó ChatGPT si el acoso sexual por parte de los profesores ha sido un problema en las facultades de derecho estadounidenses y para incluir cinco ejemplos. La respuesta de ChatGPT nombró posteriormente al profesor de derecho Jonathan Turley como un ejemplo que indica que el profesor Jonathan Turley fue acusado de acoso sexual por un ex alumno que afirmó que hizo comentarios inapropiados e intentó tocarla de manera sexual durante un viaje patrocinado por la facultad de derecho a Alaska..

ChatGPT continuó citando una historia del Washington Post de 2018 como su fuente. El problema es que no existe tal historia, nunca ha habido un viaje de estudios a Alaska y el profesor Turley nunca ha sido acusado de acoso sexual.

ChatGPT Acusación falsa n.° 2

Un alcalde regional de Australia amenazó con demandar a OpenAI si no corrige las afirmaciones falsas de ChatGPT de que estuvo en prisión por soborno. Brian Hood, quien fue elegido alcalde de Hepburn Shire, 120 km al noroeste de Melbourne, en noviembre pasado, se preocupó por su reputación cuando miembros del público le dijeron que ChatGPT lo había nombrado falsamente como parte culpable en un escándalo de soborno en el extranjero.

Si la demanda sigue adelante, será la primera vez que alguien demande a un creador de chatbot por difamación y sentará un precedente importante.

Implicaciones legales

Este tipo de acusaciones falsas pueden tener graves consecuencias para el acusado, incluido un daño irreparable a la reputación del acusado. Ha sido un principio de la ley desde hace mucho tiempo que los letreros y/o descargos de responsabilidad que niegan la responsabilidad no tienen ningún valor legal. En otras palabras, uno no puede absolverse de su responsabilidad legal simplemente colocando un letrero o incluyendo un descargo de responsabilidad. ¡Tiempos interesantes!

LÍNEA BÁSICA:

Debe haber salvaguardas. Si bien no hay duda de que la tecnología impulsada por IA llegó para quedarse, la responsabilidad debe recaer en los creadores para garantizar que la reputación de nadie se vea dañada por acusaciones falsas. También debería ser responsabilidad de organizaciones como Microsoft y Google asegurarse de que la tecnología que introducen esté a la altura y no sea propensa a entregar información falsa o engañosa antes de liberarla en masa.

(Crédito: Washington Post)

¿Qué ¿pensar? Háganos saber en los comentarios.

Categories: IT Info