El chatbot supuestamente sensible de Google es uno de los proyectos más controvertidos de la compañía que ha generado muchas preocupaciones sobre la inteligencia artificial. A pesar de toda la controversia, Google ahora registrar a los usuarios interesados para hablar con su chatbot y proporcionar comentarios a la empresa.
En la cumbre I/O 2022 de mayo, el director ejecutivo de Google, Sundar Pichai, informó sobre el programa conversacional experimental LaMDA 2 de la empresa. modelo de IA. Dijo que el proyecto estaría abierto a los probadores beta en los próximos meses, y ahora los usuarios pueden hacer reservas para estar entre los primeros usuarios que probaron este chatbot supuestamente inteligente.
Se dice que LaMDA (Modelo de lenguaje para aplicaciones de diálogo) es un modelo inteligente de procesamiento de lenguaje natural (NLP). La PNL es una especie de interfaz entre humanos y computadoras. Los asistentes de voz como Siri o Alexa son ejemplos destacados de NLP que pueden traducir el habla humana en comandos. Los NLP también se utilizan para aplicaciones de traducción y subtítulos en tiempo real.
El chatbot supuestamente sensible de Google hizo que despidieran a un ingeniero de software senior
Se remonta a julio, según los informes de Google despedido uno de sus ingenieros de software sénior, Blake Lemoine, afirmó que el chatbot de LaMDA es inteligente y actúa como una persona consciente de sí misma. Para justificar el despido, Google dijo que el empleado violó las políticas de empleo y seguridad de datos. Además, dos miembros del grupo de investigación de IA ética de Google dejaron la empresa en febrero, diciendo que no podían hacer frente a los despidos.
Los usuarios que se registran en el programa beta de LaMDA pueden interactuar con este NLP de forma controlada y supervisada. ambiente. Los usuarios de Android en los EE. UU. son los primeros usuarios en registrarse y el programa se expandirá a los usuarios de iOS en las próximas semanas. Este programa experimental ofrece algunas demostraciones a los usuarios beta para demostrar las capacidades de LaMDA.
Según Ingenieros de Google, la primera demostración se llama”Imagine It”, que permite a los usuarios nombrar un lugar y ofrece caminos para explorar su imaginación. La segunda demostración se llama”List It”, en la que los usuarios pueden compartir un objetivo o tema y luego lo divide en una lista de subtareas útiles. Finalmente, la última demostración es’Talk About It (Dogs Edition)’, que permite una conversación abierta sobre perros entre usuarios y chatbots.
El equipo de ingenieros de Google dice que han”realizado rondas dedicadas de pruebas contradictorias para encontrar fallas adicionales en el modelo”. Además, no afirman que su sistema sea infalible. “El modelo puede malinterpretar la intención detrás de los términos de identidad y, a veces, no produce una respuesta cuando se usan porque tiene dificultades para diferenciar entre indicaciones benignas y contradictorias. También puede producir respuestas dañinas o tóxicas basadas en sesgos en sus datos de entrenamiento, generando respuestas que estereotipan y tergiversan a las personas en función de su género o antecedentes culturales”.