No es ningún secreto que los esfuerzos de Microsoft para integrar ChatGPT en sus diversos servicios fueron, sin duda, un movimiento estratégico que permitió a la empresa superar a sus competidores. Sin embargo, esta decisión no estuvo exenta de consecuencias, ya que el chatbot de Bing AI tuvo varios problemas, incluido el lenguaje manipulador y respuestas objetivamente incorrectas. Ahora, según un informe de The Wall Street Journal, parece que OpenAI había advertido a Microsoft sobre los riesgos de incorporar el GPT-4 inédito, pero la empresa siguió adelante con el lanzamiento.
Este informe se produce después de que muchos usuarios comenzaran a experimentar un comportamiento errático del chatbot de Bing AI poco después de su lanzamiento, incluidos incidentes en los que el chatbot hacía comentarios insultantes, mentía, se enfadaba e incluso criticaba a los usuarios. Como resultado, Microsoft tuvo que implementar rápidamente restricciones, lo que limitó la capacidad del chatbot a solo unas pocas indicaciones por chat. Y aunque se ha realizado un gran trabajo para restaurar la estabilidad del chatbot durante varios meses, aún ocurren instancias ocasionales de mal comportamiento.
Llamadas a la regulación
Aunque Microsoft y OpenAI en su mayoría han solucionado los errores , este incidente destaca la importancia de una implementación cuidadosa y pruebas rigurosas antes de lanzar servicios impulsados por IA, ya que Microsoft debería haber prestado atención a las advertencias de OpenAI con respecto al lanzamiento prematuro. Además, el incidente también destaca las complejidades de la asociación Microsoft-OpenAI, donde coexisten la colaboración y la competencia.
“Sentí que OpenAI buscaba lo mismo que nosotros. Entonces, en lugar de intentar entrenar cinco modelos básicos diferentes, quería una base, convirtiéndola en la base para un efecto de plataforma. Así que nos asociamos. Ellos apostaron por nosotros, nosotros apostamos por ellos”, dijo el CEO de Microsoft, Satya Nadella.
Sin embargo, este es el escenario exacto que ha preocupado a los líderes de la industria y al gobierno. Esto se debe a que las empresas en esta carrera por construir los sistemas de inteligencia artificial más avanzados a menudo pasan por alto la importancia de realizar pruebas exhaustivas antes de lanzar los productos. Por lo tanto, ahora es más crucial que nunca establecer medidas estrictas para regular este desarrollo desenfrenado de IA.