Al momento de escribir este artículo, OpenAI se encuentra en medio de una batalla legal. Una empresa en California afirma que OpenAI violó la privacidad de sus usuarios mientras entrenaba su chatbot ChatGPT. Debido a esta afirmación y a la cantidad de datos que la empresa recopiló para su chatbot, esto podría tener algunas implicaciones importantes para OpenAI y otras empresas de IA. La pregunta es: ¿OpenAI está equivocado en esta situación?

¿De qué se trata el caso?

Una vez que observa de qué se trata este caso, es fácil comprender el gravedad de la situación. Ahora, la IA es como un cerebro humano; necesita ser entrenado. Necesita ser enseñado. Las empresas introducen toneladas de datos en sus LLM (modelos de lenguaje grande) para que puedan aprender. Cuanto más sepan los LLM, más útiles pueden ser. Google es una de las empresas líderes en inteligencia artificial porque tiene acceso a mil millones de toneladas de datos a través de la búsqueda de Google, Android, etc.

En el caso de ChatGPT, también utiliza un LLM que necesita capacitación. ; y la compañía lo entrenó usando una tonelada de datos. El problema radica en algunos de los lugares de donde obtuvo esta información. La empresa utilizó una gran cantidad de datos de Internet. Esto incluye una gran cantidad de datos que las personas cargaron sin dar su consentimiento para que los utilice un chatbot de IA.

Estamos hablando de artículos, publicaciones de blog, historias cortas, guiones, poemas, publicaciones en redes sociales, etc. La lista sigue y sigue. Dado que el conocimiento de ChatGPT se remonta tanto, no se sabe cuántos datos de las personas se han utilizado para entrenar a ChatGPT. La demanda dice que esta información se obtuvo sin el consentimiento del cartel original.

Es por eso que OpenAI está en problemas. La gran escala de información que OpenAI introdujo en ChatGPT es gigantesca. Si el tribunal determina que la empresa tiene la culpa, entonces podría significar malas noticias para AI en general.

Entonces, ¿OpenAI está equivocado?

Es el salvaje oeste por ahí. para la IA, ya que los legisladores aún están averiguando cómo regularla. Mientras luchan con la legalidad de la IA, los Joes promedio se enfrentan a la moralidad de la misma. ¿OpenAI está equivocado por usar tantos datos para entrenar ChatGPT?

Se podría argumentar que sí.

Gran parte de este argumento proviene de la controversia con el arte generado por IA. Hay una protesta en curso contra esta tecnología porque brinda a las personas la capacidad de crear imágenes instantáneamente con nada más que palabras. Al igual que con ChatGPT, los generadores de imágenes de IA deben recibir imágenes de arte de artistas humanos. Muchos artistas humanos no quieren que su arte se use para entrenar estos bots de imagen.

Bueno, piense en las personas que usan su contenido escrito para entrenar ChatGPT. Al igual que los generadores de imágenes pueden acabar con los artistas, los chatbots también pueden acabar con los escritores. Los chatbots pueden generar artículos, historias cortas, guiones, publicaciones de blog, etc. en cuestión de segundos. ¿Por qué contratar y pagar a un escritor humano cuando solo puede generar su contenido? Comprensiblemente, los escritores humanos que dedicaron años a desarrollar su oficio no querrían que su contenido se usara para entrenar la misma máquina que podría dejarlos sin trabajo.

Estas son personas que necesitan ponen su trabajo ahí fuera para ganarse la vida. Los periodistas publican sus artículos en sitios web públicos, los escritores hacen publicaciones de blog para los sitios web públicos de las empresas, etc. Lo hacen para compartir su oficio con los lectores y, con suerte, inspirar a otros escritores. No firmaron para que su trabajo fuera copiado y utilizado para entrenar chatbots de IA.

Otros pueden argumentar que no

Hay dos lados en este argumento. Cuando los artistas, escritores y músicos publican su trabajo en línea, corren el riesgo de que se utilice para otros fines. No es muy diferente de que te roben y plagien tu contenido. Los creadores publican su contenido con el entendimiento de que podría ser robado y utilizado para otros fines.

La conversación se vuelve aún más complicada si el contenido no está protegido por derechos de autor. Si su contenido está disponible gratuitamente en Internet para que cualquiera pueda acceder a él, entonces OpenAI podría estar en su derecho de usarlo para entrenar a ChatGPT.

Si OpenAI pierde el caso, podría ser algo bueno

Aquellos de ustedes que usan ChatGPT para escribir sus ensayos y demás probablemente estén apoyando a OpenAI para ganar el caso. Sin embargo, si la empresa pierde el caso, puede que no sea lo peor. Claro, OpenAI enfrentará una pérdida financiera, lo cual no es bueno para la empresa. Sin embargo, si el tribunal gana este caso, podría ayudar a impulsar la regulación de la IA.

Como se indicó anteriormente, es el salvaje oeste lo que existe para la regulación de la IA. Los legisladores se esfuerzan por controlar el desarrollo de la IA y asegurarse de que no tenga efectos negativos. El derecho de las personas a su contenido nunca ha estado más en peligro, ya que los generadores de imágenes de IA y los chatbots de IA están apareciendo por todas partes. El contenido de todo Internet se está utilizando para estos LLM, y no hay forma de detenerlo.

Si OpenAI pierde este caso, entonces traerá este problema a primer plano. Hará que la gente hable sobre cómo estos LLM obtienen su información. La gente está pidiendo a gritos que se regule la IA en este momento. Está causando que la gente pierda sus trabajos. Los creadores independientes están siendo mejorados por personas sin talento que generan contenido y lo comercializan. Alguien puede crear fácilmente una”canción”generada por IA y comercializarla en Spotify. Imagina sacar un álbum completo en un día o una semana y obtener ingresos de él.

Lo mismo ocurre con los”artistas”y los”autores”de IA. Puede que ya sea demasiado tarde para la mayoría de la gente. Todavía estamos aprendiendo el potencial de la tecnología de IA generativa; esto incluye el potencial para algo malo.

Solo el tiempo lo dirá

En este punto, todavía estamos esperando los resultados del caso, por lo que es difícil saber qué va a pasar.. Tendremos que esperar y ver cómo se desarrolla este caso para conocer el futuro de la tecnología. Un caso como este definitivamente podría tener algunas ramificaciones importantes para la IA.

Categories: IT Info