No es ningún secreto que el impulso de Microsoft para integrar ChatGPT en sus diversos servicios llevó a gigantes de la industria como Google a construir su propio chatbot de IA llamado Bard. Sin embargo, la respuesta de Google a ChatGPT ha tenido un comienzo inestable. Según un informe de The Information, un ex investigador de inteligencia artificial de Google llamado Jacob Devlin afirma que Google usó ShareGPT, una plataforma donde los usuarios comparten sus conversaciones con ChatGPT, para capacitar a Bard.
Según los informes, Devlin dejó Google después de expresar su preocupación a Alphabet El director ejecutivo Sundar Pichai y otros ejecutivos, argumentando que el uso de los datos de ShareGPT violaría los términos de servicio de OpenAI y haría que las respuestas de Bard fueran demasiado similares a las de ChatGPT. El informe también indica que Google dejó de usar los datos de ChatGPT después de las advertencias de Devlin.
La respuesta de Google
Aunque Google ha negado las acusaciones y afirmó que usaron LaMDA para entrenar a Bard, algunas personas están escéptico sobre su rápido desarrollo después del lanzamiento de ChatGPT. Además, según los informes, Google también está aumentando sus esfuerzos para hacer que Bard compita con ChatGPT a través del esfuerzo de colaboración llamado”Gemini”entre Google Brain y DeepMind.
El comienzo difícil de Bard fue evidente en su primera demostración, donde cometió un error fáctico sobre los descubrimientos de el Telescopio Espacial James Webb, lo que llevó a la empresa matriz de Google, Alphabet, a perder 100.000 millones de dólares debido a la caída de las acciones. Pero está claro que Google está ansioso por mejorar su chatbot de IA y está dispuesto a colaborar en todas sus divisiones para lograr este objetivo. La batalla entre Google y Microsoft por la IA probablemente se intensificará después de la integración de ChatGPT en Microsoft Bing, que ya tiene más de 100 millones de usuarios activos diarios y está creciendo rápidamente.
Sin embargo, el desarrollo ético de la IA debería ser una prioridad. prioridad para todas las empresas del sector. El uso de datos extraídos sin permiso es poco ético e ilegal, y el desarrollo de una IA ética debe ser un objetivo principal para todas las empresas de la industria.