Arstechnica (プラットフォーマー)、Microsoft は、10,000 人の従業員に影響を与えた社内の大量レイオフを受けて、AI 倫理チームを解雇しました。このチームは、Microsoft AI 製品によって引き起こされる社会的被害を監視し、軽減する責任を負っていました。
Microsoft は、ChatGPT の親会社である OpenAI への初期投資と、それを Bing 検索エンジンに統合したことで、ここ数か月の見出しを飾っています。. AI を自社の製品やサービスに組み込んでいるすべての企業には、関連する可能性のある危険性を調査するチームがありますが、Microsoft は AI 倫理チームのメンバーを解雇したばかりです。これは、同社のエンジニアが AI によって生成されるリスクを予測して排除するのに役立ちました。元チーム メンバーは、マイクロソフト製品の AI リスクを軽減する上で重要な役割を果たしたと述べています。
Microsoft AI 倫理チームは、最近の人員削減に続いて会社を去りました
このニュースに応えて、Microsoft は、「安全かつ責任を持って AI 製品とエクスペリエンスを開発することに専念しており、そうしている」と発表しました。これを優先する人、プロセス、パートナーシップに投資することによって。」
また、同社は過去 6 年間、責任ある AI オフィスの構築に注力してきたと述べています。このチームは引き続き配置され、Aether 委員会およびエンジニアリングの責任ある AI 戦略と協力して、AI のリスクを軽減します。
AI 倫理チームを解雇するという Microsoft の決定は、OpenAI の最も高度な AI モデルである GPT の立ち上げと同時に行われます。-4.このモデルは Microsoft Bing に追加され、Google のライバルへの関心をさらに高める可能性があります。
Microsoft は 2017 年に AI 倫理チームの結成を開始し、チームには 30 人のメンバーがいたと伝えられています。 The Platformer は、Google との AI 競争が過熱していたため、同社は後にメンバーをさまざまな部門に分散させたと報告しています。最後に、Microsoft はチームをわずか 7 人に縮小しました。
元従業員はまた、アーティストの作品をコピーした Bing Image Creator などの AI 駆動型ツールに関する推奨事項に Microsoft が耳を貸さなかったと主張しています。解雇された従業員は、潜在的に無責任な設計に「ノー」と言う人が社内にいない場合、AI がユーザーにさらす可能性のある危険性を懸念しています。