Microsoft est en train de déployer une mise à jour de son chatbot Bing alimenté par ChatGPT qui crée moins de refus et réduit le désengagement.
Microsoft Bing fonctionne actuellement sur GPT-4, qui est le modèle de langage le plus puissant développé par OpenAI. Cependant, le chatbot refuse parfois de répondre à des questions précises, ce qui frustre les utilisateurs. La dernière mise à jour de Microsoft, connue sous le nom de Bing Chat v98, veut résoudre le problème.
Selon Mikhail Parakhin, responsable de la publicité et des services Web chez Microsoft, la mise à jour Bing Chat v98 prendra effet en deux étapes. La première étape réduit le nombre de cas où Bing refuse de fournir une réponse à une requête, comme écrire un code. La deuxième étape réduirait également le désengagement.
Microsoft Le chatbot Bing a désormais moins de refus et moins de désengagement
Les chatbots IA refusent parfois d’aider car ils pourraient identifier la question comme sensible. Il existe de nombreux cas de réponses racistes, biaisées ou sexuelles par ces chatbots. Le Bing Chat v98 vise à réduire ces refus tout en garantissant que les réponses ne posent pas de problème.
Le chatbot Microsoft Bing vise également à interagir davantage avec les utilisateurs. Les instances de désengagement n’ont pas encore été découvertes, mais elles peuvent faire référence au moment où le chatbot Bing pense qu’une conversation ou une tâche est terminée alors qu’elle est encore ouverte.
Mikhail Parakhin a également fait allusion au Bing Image Creator, qui permet aux utilisateurs pour créer des œuvres d’art à l’aide de l’IA. En réponse à un utilisateur qui a qualifié la fonctionnalité de”très très restrictive”. Parakhin a déclaré que la fonctionnalité”s’améliore rapidement”et qu’elle est maintenant bien meilleure qu’à ses débuts. Les créateurs d’images d’IA sont devenus controversés pour les violations du droit d’auteur et la copie du travail d’autres artistes.
En outre, le responsable de la publicité et des services Web de Microsoft a abordé les fausses réponses parfois produites par le mode créatif de Bing Chat, en disant :”Nous essayons pour avoir des réponses plus rapides : ayez deux voies dans le modèle, exécutez la plus rapide, vérifiez si la réponse est bonne, sinon, exécutez la voie la plus lente. Dans ce cas, il a décidé à tort que l’attente supplémentaire n’était pas justifiée. » Il a également promis qu’un correctif est en route.