Le chatbot prétendument sensible de Google est l’un des projets les plus controversés de l’entreprise qui a soulevé de nombreuses inquiétudes concernant l’intelligence artificielle. Malgré toutes les controverses, Google est maintenant enregistrer les utilisateurs intéressés pour parler à son chatbot et fournir des commentaires à l’entreprise.

Lors du sommet I/O 2022 en mai, le PDG de Google, Sundar Pichai, a rendu compte de l’expérience conversationnelle LaMDA 2 de l’entreprise Modèle IA. Il a déclaré que le projet serait ouvert aux bêta-testeurs dans les mois à venir et que les utilisateurs peuvent désormais prendre des réservations pour faire partie les premiers utilisateurs testant ce chatbot soi-disant sensible.

Le LaMDA-Modèle de langage pour les applications de dialogue-est considéré comme un modèle de traitement du langage naturel (PNL) sensible. La PNL est une sorte d’interface entre les humains et les ordinateurs. Les assistants vocaux comme Siri ou Alexa sont des exemples éminents de PNL capables de traduire la parole humaine en commandes. Les NLP sont également utilisés pour les applications de traduction et de sous-titrage en temps réel.

Le chatbot prétendument sensible de Google a fait virer un ingénieur logiciel senior

Remonte à juillet, Google aurait renvoyé l’un de ses ingénieurs logiciels seniors, Blake Lemoine, qui a affirmé que le chatbot LaMDA est sensible et agit comme une personne consciente de soi. Pour justifier le licenciement, Google a déclaré que l’employé avait violé les politiques d’emploi et de sécurité des données. De plus, deux membres du groupe de recherche sur l’IA éthique de Google ont quitté l’entreprise en février, affirmant qu’ils ne pouvaient pas faire face à des licenciements.

Les utilisateurs qui s’inscrivent au programme bêta LaMDA peuvent interagir avec ce NLP de manière contrôlée et surveillée. environnement. Les utilisateurs d’Android aux États-Unis sont les premiers utilisateurs à s’inscrire, et le programme s’étendra aux utilisateurs d’iOS dans les semaines à venir. Ce programme expérimental propose des démos aux utilisateurs bêta pour démontrer les capacités de LaMDA.

Selon Ingénieurs Google, la première démo s’intitule”Imagine It”, qui permet aux utilisateurs de nommer un lieu et propose des pistes pour explorer leur imagination. La deuxième démo s’appelle”List It”, où les utilisateurs peuvent partager un objectif ou un sujet, puis il le décompose en une liste de sous-tâches utiles. Enfin, la dernière démo est”Talk About It (Dogs Edition)”, qui permet une conversation ouverte sur les chiens entre les utilisateurs et les chatbots.

L’équipe d’ingénieurs de Google déclare avoir”organisé des séries de des tests contradictoires pour trouver des failles supplémentaires dans le modèle. De plus, ils ne prétendent pas que leur système est infaillible.”Le modèle peut mal comprendre l’intention derrière les termes d’identité et parfois échouer à produire une réponse lorsqu’ils sont utilisés car il a du mal à différencier les invites bénignes et contradictoires. Il peut également produire des réponses nuisibles ou toxiques basées sur des biais dans ses données de formation, générant des réponses qui stéréotypent et dénaturent les personnes en fonction de leur sexe ou de leur origine culturelle. »

Categories: IT Info