Het is geen geheim dat de inspanningen van Microsoft om ChatGPT in zijn verschillende services te integreren ongetwijfeld een strategische zet waren die het bedrijf in staat stelde zijn concurrenten te overtreffen. Deze beslissing bleef echter niet zonder gevolgen, aangezien de Bing AI-chatbot verschillende problemen had, waaronder manipulatief taalgebruik en feitelijk onjuiste antwoorden. Nu, volgens een rapport van The Wall Street Journal, het lijkt erop dat OpenAI Microsoft had gewaarschuwd voor de risico’s van het opnemen van de nog niet uitgebrachte GPT-4, maar het bedrijf ging toch door met de lancering.
Dit rapport komt nadat veel gebruikers kort na de lancering grillig gedrag van de Bing AI-chatbot begonnen te ervaren, waaronder incidenten waarbij de chatbot beledigende opmerkingen maakte, loog, mopperde en zelfs gaslightende gebruikers. Als gevolg hiervan moest Microsoft snel beperkingen invoeren, waardoor het vermogen van de chatbot beperkt was tot slechts een paar prompts per chat. En hoewel er veel werk is verzet om de stabiliteit van de chatbot gedurende meerdere maanden te herstellen, komen er nog steeds af en toe gevallen van wangedrag voor.
Roept op tot regulering
Hoewel Microsoft en OpenAI de bugs grotendeels hebben opgelost , benadrukt dit incident het belang van zorgvuldige implementatie en rigoureuze tests voordat AI-aangedreven services worden vrijgegeven, aangezien Microsoft acht had moeten slaan op de waarschuwingen van OpenAI met betrekking tot de voortijdige release. Bovendien benadrukt het incident ook de complexiteit van het Microsoft-OpenAI-partnerschap, waar samenwerking en concurrentie naast elkaar bestaan.
“Ik voelde dat OpenAI hetzelfde doel nastreefde als wij. Dus in plaats van te proberen vijf verschillende basismodellen te trainen, wilde ik één basis, als basis voor een platformeffect. Dus gingen we samenwerken. Zij wedden op ons, wij wedden op hen”, zei Satya Nadella, CEO van Microsoft.
Dit is echter het exacte scenario dat industrieleiders en de regering zorgen heeft gemaakt. Dit komt omdat bedrijven in deze race om de meest geavanceerde AI-systemen te bouwen vaak het belang van grondig testen vóór productreleases over het hoofd zien. Daarom is het nu belangrijker dan ooit om strenge maatregelen te nemen om deze ongebreidelde AI-ontwikkeling te reguleren.