Pour tous ceux qui ont accès à l’IA Bard de Google, il est évident qu’elle est en train de perdre la course des chatbots contre ChatGPT et Bing AI (je n’aurais jamais pensé dire ça !). Il se trompe sur un tas de choses très basiques et est également la seule IA qui ne sait pas si elle est sensible. Google a reconnu que Bard est au début du développement bêta et fera des erreurs. Cependant, les critiques ont souligné à quel point il pâlit par rapport à ses concurrents. Bien qu’il soit idéal pour certaines choses, en particulier depuis qu’il est formé sur la recherche Google, il n’est tout simplement pas encore à la hauteur de nombreuses tâches.
Eh bien, c’est jusqu’à maintenant. Après avoir été accusé d’utiliser directement les données de ChatGPT, le PDG de Google et Alphabet, Sundar Pichai, a déclaré dans une interview au New York Times’Podcast Hard Fork (félicitations : The Verge) que”Très bientôt, peut-être que lorsque le [podcast] sera mis en ligne, nous mettrons à jour Bard vers certains de nos des modèles PaLM plus performants, qui apporteront plus de capacités – que ce soit pour le raisonnement, le codage ou la réponse à des questions mathématiques. Il a également déclaré que les utilisateurs verraient des progrès au cours de la semaine prochaine. Il est très probable qu’il reçoit déjà ces mises à jour, et certaines personnes du Bard Discord l’ont déjà souligné.
Apparemment, Bard lui-même a fonctionné sur une”version légère et efficace de LaMDA”, qui est la version controversée de Google. modèle de langage. La société a essentiellement limité les capacités de Bard à assurer la sécurité des consommateurs, comme l’a confirmé Sundar lors du podcast susmentionné. Cependant, avec la mise à niveau, Bard recevra une version plus puissante de LaMDA qui lui injectera plus d’intelligence et étendra ses capacités.
Enfin, il a expliqué qu’il était important de ne pas sortir un plus capable modèle jusqu’à ce que Google puisse s’assurer qu’il est sans danger pour les consommateurs. Google a répété à plusieurs reprises qu’il s’engageait à développer une IA responsable et à garantir la sécurité de ses modèles. Cette semaine, l’industrie a proposé de geler la publication de nouveaux modèles d’IA car ils sont si puissants, et les experts en recherche ont convenu d’évaluer les préoccupations avant de devenir fous avec cette nouvelle révolution de l’IA.