La batalla de la inteligencia artificial condujo al nacimiento del chatbot Bard AI de Google, un rival del chatbot Bing ChatGPT. Pero parece que algunos empleados de Google no piensan mucho en Bard como sus empleadores quieren. ¿Cuál puede ser exactamente la razón detrás del rechazo que Bard está recibiendo de su gente?

Bueno, muchos podrían argumentar que los informes solo citan una cantidad insignificante de trabajadores de Google. Algunas personas que componen esta lista de los que patean contra Bard son ex empleados de Google. Pero independientemente del tamaño de la oposición, es una buena idea tener en cuenta el motivo de su aversión.

Todo se reduce a las habilidades del chatbot Bard AI cuando las personas lo utilizan. Los problemas descritos también son el caso del mayor rival de Bard, el chatbot Bing AI. Curiosamente, el personal de Google ha etiquetado esta plataforma de IA como”peor que inútil”. Esto suena demasiado duro viniendo de Googlers, por lo que llama más la atención sobre el rendimiento de Bard.

Las respuestas engañosas del chatbot Bard AI de Google lo sometieron a un intenso escrutinio por parte de sus creadores

Durante los últimos meses, Microsoft ha sido noticia como resultado de su integración de ChatGPT en su navegador. Esto llevó el chatbot de IA a Bing y Skype, pero los usuarios han podido detectar algunas fallas. Estas fallas se deben a que el chatbot de Bing AI no conocía los límites de una conversación, amenazaba a los usuarios y falsificaba información.

Poco después de que Microsoft anunciara la integración de ChatGPT en Bing, Google ya se estaba preparando para anunciar el bot conversacional Bard AI. Bueno, parece que los empleados de Google están señalando fallas notables en el chatbot de IA, luego de su llegada.

Estas fallas son bastante similares a las que salieron a la luz con el chatbot ChatGPT. Bard ahora proporciona información falsa a los usuarios y da consejos peligrosos, lo que amenaza la seguridad del usuario. La prisa de Google podría ser la causa principal de estos problemas que sus empleados señalan en el uso de Bard.

Informes indican que el equipo de seguridad interna había aconsejado que no se lanzara el chatbot. En cambio, estos defectos se corregirán para fomentar el lanzamiento de un producto más estable y fácil de usar. Ahora, Google tendrá que concentrarse en solucionar estos problemas para garantizar que quienes utilicen este producto puedan obtener respuestas seguras y precisas para sus búsquedas.

Al igual que el chatbot Bing AI de Microsoft, Bard viene con algunos defectos Muchos podrían argumentar que es normal para cualquier nuevo producto de IA, pero estos problemas están empujando a ciertos países a prohibir los chatbots de IA. La industria de los bots conversacionales de IA debe someterse a un proceso de perfeccionamiento antes de que la mayoría pueda considerarla segura para su uso.

Categories: IT Info