根據 Arstechnica(通過 Platformer),在公司內部大規模裁員影響了 10,000 名員工之後,微軟剛剛裁掉了一個 AI 道德團隊。該團隊負責監控和減少微軟 AI 產品造成的社會危害。
近幾個月來,微軟因對 ChatGPT 母公司 OpenAI 的初始投資並將其集成到其 Bing 搜索引擎中而成為頭條新聞.雖然所有將人工智能融入其產品和服務的公司都有一個團隊來檢查可能存在的相關危險,但微軟剛剛解雇了其人工智能道德團隊成員。
據報導,該團隊為微軟開發了一個“負責任的創新工具包”這幫助公司的工程師預測和消除人工智能產生的風險。前團隊成員表示,他們在減輕 Microsoft 產品中的 AI 風險方面發揮了關鍵作用。
微軟 AI 倫理團隊在最近裁員後離開了公司
作為對這一消息的回應,微軟宣布它仍然“致力於安全和負責任地開發 AI 產品和體驗,並且這樣做通過投資於優先考慮這一點的人員、流程和合作夥伴關係。”
該公司還表示,在過去六年中,它一直專注於建立負責任的 AI 辦公室。該團隊仍然存在,並與 Aether Committee 和 Responsible AI Strategy in Engineering 合作,以降低 AI 風險。
Microsoft 解僱 AI 道德團隊的決定恰逢 OpenAI 最先進的 AI 模型 GPT 的發布-4。該模型被添加到 Microsoft Bing,這可以激發人們對谷歌競爭對手的更多興趣。
微軟於 2017 年開始組建其 AI 道德團隊,據報導該團隊有 30 名成員。 Platformer 報導稱,隨著與穀歌的 AI 競爭升溫,該公司後來將成員分散到不同的部門。最後,Microsoft 將團隊縮減為僅 7 人。
這些前員工還聲稱,Microsoft 沒有聽取他們對複製藝術家作品的 AI 驅動工具(例如 Bing Image Creator)的建議。被裁員的員工現在擔心,當公司中沒有人對可能不負責任的設計說“不”時,AI 可能會給用戶帶來危險。