No es ningún secreto que ChatGPT de OpenAI ha causado sensación desde su lanzamiento, acumulando más de 100 millones de usuarios activos diarios en solo dos meses. Sin embargo, parece que los italianos pronto perderán el acceso al chatbot, ya que el garante de privacidad italiano ha ordenó la prohibición de ChatGPT, alegando que la empresa está violando el Reglamento General de Protección de Datos (RGPD) de la Unión Europea y no protege adecuadamente a los niños.
Las preocupaciones del garante de privacidad italiano se derivan de la recopilación masiva de datos que OpenAI usó para entrenar a ChatGPT. El regulador también está preocupado por los resultados inexactos del chatbot y la falta de controles de edad para evitar que los niños vean contenido inapropiado. Aunque OpenAI afirma que ChatGPT solo es adecuado para usuarios mayores de 13 años, la empresa no ha implementado ninguna medida para verificar la edad de sus usuarios. Como resultado, OpenAI ahora tiene 20 días para abordar estas inquietudes, o la empresa podría enfrentarse a una multa de hasta 20 millones de euros o el 4 % de su facturación mundial anual.
“La SA italiana impuso una sanción inmediata limitación temporal del procesamiento de los datos de los usuarios italianos por parte de OpenAI, la empresa con sede en EE. UU. que desarrolla y administra la plataforma”, dice el fallo.
La historia de Italia de prohibir los chatbots de IA
Esta no es la primera vez que el gobierno italiano toma medidas contra un chatbot de IA. En febrero, el regulador prohibió Replika.ai, una aplicación que se ha vuelto notoria por las relaciones personales que algunos usuarios desarrollan con su chatbot. Además, esta decisión también se produce pocos días después de que una organización de investigación sin fines de lucro presentara una queja ante la Comisión Federal de Comercio (FTC) de EE. UU. en la que pedía que se detuvieran los futuros lanzamientos de ChatGPT hasta que OpenAI cumpliera con las pautas de la agencia.
Aunque los usuarios podrían aún acceden a ChatGPT con una VPN, esta situación destaca la creciente presión sobre las empresas de inteligencia artificial para garantizar que sus prácticas se alineen con los estándares éticos y los requisitos legales. A medida que la IA continúa evolucionando y desempeñando un papel más importante en nuestras vidas, es vital que las empresas sean transparentes sobre sus prácticas de recopilación de datos.