Un error en el chatbot de inteligencia artificial ChatGPT ha permitido que algunos usuarios vean los títulos de las conversaciones de otros usuarios, lo que genera problemas de privacidad. El CEO de OpenAI, Sam Altman, reconoció el problema y dijo que la compañía se siente”horrible”al respecto. Aseguró a los clientes que el error”significativo”ya se ha solucionado.
Millones de personas han utilizado ChatGPT desde su lanzamiento en noviembre del año pasado. El chatbot almacena cada conversación en el historial de chat del usuario, lo que les permite volver a visitarla más tarde. Esta función es beneficiosa porque permite a los usuarios consultar chats anteriores con facilidad.
Sam Altman, director ejecutivo de OpenAI, ha anunciado que su equipo solucionó el error y pronto realizará una”autopsia técnica”para investigar el problema. problema más. La compañía se siente”horrible”por el error, pero Altman enfatizó que la falla solo permitía a los usuarios ver los títulos de los chats de otros usuarios, no los chats reales.
Noticias de la semana de Gizchina
OpenAI ha confirmado que su servicio está funcionando nuevamente. Sin embargo, Altman ha declarado que los usuarios no tendrán acceso a sus historiales de chat a partir de un período de tiempo específico el 27 de marzo. Su política de privacidad indica que los datos generados a partir de estas conversaciones, como indicaciones y respuestas, pueden ayudar a entrenar aún más las capacidades del chatbot. Esto podría ayudar a mejorar su capacidad para comprender y responder a las necesidades de los usuarios.
Este error de ChatGPT es solo uno de los muchos incidentes que han generado inquietudes sobre la privacidad en la industria de la IA. La creciente competencia entre Google y Microsoft en IA ha resultado en un rápido ritmo de lanzamiento de nuevos productos. Esto ha generado preocupaciones de que los errores o los descuidos podrían tener consecuencias no deseadas y potencialmente dañinas.
Fuente/VIA: