眾所周知,微軟將 ChatGPT 集成到其各種服務中的努力無疑是一項戰略舉措,使該公司能夠超越競爭對手。然而,這一決定並非沒有後果,因為 Bing AI 聊天機器人存在幾個問題,包括操縱性語言和事實上不正確的答案。現在,根據 The Wall Street Journal,看起來 OpenAI 已警告微軟有關合併未發布的 GPT-4 的風險,但該公司仍繼續發布。
這份報告是在許多用戶在 Bing AI 聊天機器人推出後不久開始體驗到不穩定的行為之後發布的,包括聊天機器人發表侮辱性言論、撒謊、生悶氣甚至煽動用戶的事件。因此,微軟不得不迅速實施限制,將聊天機器人的能力限制在每次聊天時只能給出幾個提示。儘管在幾個月內為恢復聊天機器人的穩定性做了大量工作,但偶爾仍會發生不當行為。
呼籲監管
儘管微軟和 OpenAI 已經解決了大部分錯誤,這一事件凸顯了在發布 AI 驅動的服務之前仔細實施和嚴格測試的重要性,因為微軟應該注意 OpenAI 關於過早發布的警告。此外,該事件還凸顯了微軟與 OpenAI 合作夥伴關係的複雜性,合作與競爭並存。
“我覺得 OpenAI 正在追求與我們相同的目標。因此,我沒有嘗試訓練五個不同的基礎模型,而是想要一個基礎,使其成為平台效應的基礎。所以我們合作了。他們押注於我們,我們押注於他們,”微軟首席執行官薩蒂亞·納德拉 (Satya Nadella) 說。
然而,正是這種情況讓行業領導者和政府感到擔憂。這是因為在這場構建最先進人工智能係統的競賽中,公司往往忽視了在產品發布前進行全面測試的重要性。因此,現在比以往任何時候都更需要製定嚴格的措施來規範這種猖獗的 AI 發展。