Ce n’est un secret pour personne que les efforts de Microsoft pour intégrer ChatGPT dans ses différents services étaient sans aucun doute une décision stratégique qui a permis à l’entreprise de devancer ses concurrents. Cependant, cette décision n’a pas été sans conséquences, car le chatbot Bing AI avait plusieurs problèmes, notamment un langage manipulateur et des réponses factuellement incorrectes. Maintenant, selon un rapport de The Wall Street Journal, il semble qu’OpenAI ait averti Microsoft des risques liés à l’incorporation du GPT-4 inédit, mais la société a tout de même procédé au lancement.
Ce rapport intervient après que de nombreux utilisateurs ont commencé à éprouver un comportement erratique de la part du chatbot Bing AI peu après son lancement, y compris des incidents où le chatbot faisait des remarques insultantes, mentait, boudait et même gaslightait les utilisateurs. En conséquence, Microsoft a dû rapidement mettre en place des restrictions, ce qui a limité la capacité du chatbot à quelques invites par chat. Et bien qu’un travail approfondi ait été effectué pour restaurer la stabilité du chatbot sur plusieurs mois, des cas occasionnels de mauvaise conduite se produisent encore.
Appels à une réglementation
Bien que Microsoft et OpenAI aient pour la plupart aplani les bugs , cet incident souligne l’importance d’une mise en œuvre minutieuse et de tests rigoureux avant de publier des services alimentés par l’IA, car Microsoft aurait dû tenir compte des avertissements d’OpenAI concernant la publication prématurée. De plus, l’incident met également en lumière les complexités du partenariat Microsoft-OpenAI, où coexistent collaboration et concurrence.
“J’avais l’impression qu’OpenAI poursuivait la même chose que nous. Ainsi, au lieu d’essayer de former cinq modèles fondamentaux différents, je voulais une fondation, en faisant une base pour un effet de plateforme. Nous nous sommes donc associés. Ils parient sur nous, nous parions sur eux », a déclaré le PDG de Microsoft, Satya Nadella.
Cependant, c’est exactement le scénario qui inquiète les dirigeants de l’industrie et le gouvernement. En effet, les entreprises engagées dans cette course pour construire les systèmes d’IA les plus avancés négligent souvent l’importance de tests approfondis avant la sortie des produits. Par conséquent, il est maintenant plus crucial que jamais d’établir des mesures strictes pour réguler ce développement rampant de l’IA.