Érase una vez, como hace dos años en 2021, Alphabet Inc., empresa matriz de Google LLC, se comprometió a estudiar la ética de la IA. Bueno, ya existía en Google un grupo dedicado a la ética con respecto a la IA y se dedicaron a brindar comentarios sobre cuán moralmente buenos son los productos de la compañía.
Entonces, antes de marzo de 2023, que marca el lanzamiento de Bard a un grupo o individuos cerrados, el”comité”de ética trabajó arduamente para convencer a Google de que Bard no estaba exactamente listo para un lanzamiento limitado.
A pesar de eso, sin embargo, la compañía procedió según lo planeado y lanzó Bard, aparentemente con el único objetivo de tener un competidor existente para ChatGPT y OpenAI de Microsoft. Esto, a su vez, dejó al grupo de ética desmoralizado y en ruinas, ya que numerosos jugadores clave abandonaron Google poco después.
¿Google renunció a la ética solo para liberar a Bard antes de tiempo?
Bard puede hacer mucho más que simplemente charlar y proporcionar información. La composición, la codificación y la reproducción de imágenes se encuentran entre sus muchos talentos.
Bloomberg informa que Google aparentemente ha proporcionado información de baja calidad a Bard solo para poder revelarla antes. Esta información está respaldada por algunos documentos internos de la empresa examinados, pero no especificados, y las palabras de los miembros existentes y anteriores del grupo de ética.
Naturalmente, el Gran G no se tomó esto a la ligera. Afirma que la ética sigue siendo una prioridad principal con respecto a Bard y la IA en general. Y eso solo tiene sentido, dado que Google dudó en incursionar en la IA durante años, precisamente debido a los dilemas morales.
Sin embargo, aparentemente se necesitó la condición de una competencia creciente para que la compañía cambiara su postura general sobre el camino. ChatGPT y OneAI, y cualquier otra IA para el caso, no existirían sin la propia investigación de Google, por lo tanto, ¿está mal querer un trozo del delicioso pastel, si cultivaste los ingredientes para ello?
Google Bard: ¿mentiroso patológico o aprendiz rápido?
Ahora, imagina un Pixel X Pro con toneladas de funciones exclusivas, con la tecnología de Bard. ¿No es un producto?
Y Google cree firmemente que se han realizado todos los controles de seguridad antes de lanzar Bard… como un experimento y no como un producto. ¿Es esta etiqueta una forma de prevención de riesgos? Y si es así, ¿cómo es posible que estemos esperando numerosas funciones para servicios como Documentos, Presentaciones, Gmail y YouTube, que en realidad son productos independientes, impulsados por dicho experimento? ¿Es eso ético?
El grupo de ética de Google tiene una respuesta y es la vacilación. La vacilación para hablar y discutir, ya que, según los informes, reciben un”Solo está tratando de ralentizar el proceso”en respuesta. ¿Ha pasado la ética a un segundo plano en las empresas comerciales? Comida para el pensamiento.
Antes de lanzar Bard en marzo, Google otorgó acceso interno a la IA a sus empleados para recopilar comentarios. Estos son algunos fragmentos de lo que los empleados de Google dijeron sobre Bard: Mentiroso patológico. Digno de vergüenza. Consejos que terminarían en un desastre. Pero aquí hay una perspectiva diferente: el acceso limitado, pero aún público, es una oportunidad para que Bard aprenda y se corrija. Después de todo, Google es prolífico en términos de algoritmos, entonces, ¿es descabellado imaginar una realidad en la que todo esto sea parte de un plan real para permitir que Bard aprenda y crezca, tal como lo había hecho ChatGPT en el pasado?
Otra vez: alimento para el pensamiento.