En este momento, OpenAI, la empresa detrás de ChatGPT y DALL-E, se encuentra en medio de una acalorada batalla legal. El caso dice que la forma en que obtiene datos para entrenar a ChatGPT, extrayendo datos públicos de Internet, es una violación masiva de la privacidad de las personas. Parece que Google está observando de cerca, ya que la empresa actualizó su política de privacidad. En el proceso, confirma que extrae datos para entrenar a Google Bard.

Sabemos que OpenAI va a estar librando esta batalla legal durante algún tiempo, y el resultado podría tener un impacto en el curso de la IA. avanzando. Tenemos un editorial sobre este caso, y puede hacer clic aquí para leerlo.

Google confirma que extrae datos para entrenar a Bard

Mirando el agua caliente en la que se encuentra OpenAI, es no sorprende que Google esté buscando cubrir su piel. El gigante de las búsquedas es todo un coleccionista de casos legales en su contra.

Según Gizmodo (a través de The Verge) Google actualizó su política de privacidad el 1 de julio. La compañía realmente no cambió gran parte del contenido de la política. Sin embargo, es más claro sobre el hecho de que extrae datos para entrenar sus productos de IA. Esto incluye a Bard, pero no se limita a él.”… usamos información disponible públicamente para ayudar a entrenar los modelos de IA de Google y crear productos y funciones como Google Translate, Bard y capacidades de IA en la nube”.

El hecho de que aclare que usa datos disponibles públicamente para entrenar sus modelos de IA, espera la compañía, evitarán que se incendie. Una parte importante del caso contra OpenAI es el hecho de que no especificó esto. Las personas, sin saberlo, están extrayendo sus datos para usarlos para la IA.

La aclaración no es el punto

Google especificó que extrae datos, genial; la empresa obtiene una estrella de oro. Pero ese no es el punto. Este cambio apenas mantiene a la empresa dentro del área gris entre lo legal y lo ilegal. Tal vez lo mantenga fuera de los ojos de los legisladores y las agencias gubernamentales por ahora.

Pero esto no hace nada por las personas de las que extrae datos. A medida que la IA avanza, pisa a más y más personas. Artistas, periodistas, escritores creativos, músicos, compositores, desarrolladores, etc. Aclararles a estas personas que sus datos se utilizan para entrenar los mismos modelos de IA que los dejarán sin trabajo no mejora la situación.

Si Google, OpenAI y otras empresas de IA están realmente preocupadas por vigilar sus creaciones, tendrán que hacerlo mejor que esto. De no ser así, deberían aclarar que a ellos solo les importa el dinero, y no las personas afectadas por sus productos.

Categories: IT Info