ChatGPT を自社のさまざまなサービスに統合するという Microsoft の取り組みが、間違いなく同社が競合他社を飛び越えることを可能にする戦略的な動きであったことは周知の事実です。しかし、Bing AI チャットボットには操作的な言葉遣いや事実に反する回答など、いくつかの問題があったため、この決定には影響がなかったわけではありません。 ウォール ストリート ジャーナルによると、OpenAI は未リリースの GPT-4 を組み込むリスクについて Microsoft に警告していたようですが、それでも同社は発売を続行しました。
このレポートは、多くのユーザーが、Bing AI チャットボットのリリース直後から、チャットボットがユーザーを侮辱した発言、嘘、不機嫌な発言、さらにはガスライティングをするなどの異常な動作を経験し始めたことを受けて発表されました。その結果、Microsoft はすぐに制限を導入する必要があり、チャットボットの機能はチャットごとに数件のプロンプトのみに制限されました。また、チャットボットの安定性を回復するために数か月にわたって広範な作業が行われてきましたが、依然として不正行為が時折発生しています。
規制を求める
Microsoft と OpenAI はバグをほぼ解決しましたが、 , このインシデントは、Microsoft が時期尚早なリリースに関する OpenAI の警告に留意すべきであったため、AI を利用したサービスをリリースする前に慎重な実装と厳格なテストの重要性を浮き彫りにしました。さらに、この事件は、コラボレーションと競争が共存する Microsoft と OpenAI のパートナーシップの複雑さを浮き彫りにしました。
「OpenAI も私たちと同じことを追求していると感じました。したがって、5 つの異なる基礎モデルをトレーニングしようとする代わりに、プラットフォーム効果の基礎となる 1 つの基礎が必要でした。そこで私たちは提携しました。彼らは私たちに賭けており、私たちも彼らに賭けています」と Microsoft CEO Satya Nadella は述べました。
しかし、これは業界リーダーや政府が懸念してきたまさにそのシナリオです。これは、最先端の AI システムの構築競争に参加している企業が、製品リリース前の徹底的なテストの重要性を見落とすことが多いためです。したがって、この横行する AI 開発を規制する厳格な措置を確立することが、これまで以上に重要になっています。