ChatGPT のような生成 AI が始まって以来、専門家や政府は、この分野での無規制な開発に関して懸念を抱いてきました。現在、これらの懸念に対処するために、OpenAI は潜在的な問題を管理することを目的とした専門チームを結成しています。
OpenAI の共同創設者である Ilya Sutskever が率いるこのチームは、OpenAI の調整チームの著名なメンバーである Jan Leike とともに、次のような仮説のシナリオに対処する方法を開発します。超インテリジェント AI システムは人間の知能を超え、自律的に動作し始めます。このシナリオは突飛なように思えるかもしれませんが、専門家らは超知能 AI が今後 10 年以内に現実になる可能性があると主張し、今日の安全策の開発の重要性を強調しています。
「現在、我々には操縦のための解決策がありません。」あるいは、超知能を備えた潜在的な AI を制御し、その不正行為を防ぐこともできます」と、この決定を発表したブログ投稿には書かれています。
スーパーアライメント チーム
OpenAI によって設立されたスーパーアライメント チームは、OpenAI の以前の科学者やエンジニアとともに、現在の計算リソースの約 20% にアクセスできるようになります。アライメント部門は、主に他の AI システムの評価とアライメント研究の実施を支援する「人間レベルの自動アライメント研究者」を開発する予定です。
「この点で進歩するにつれて、当社の AI システムはより多くのことを引き継ぐことができるようになります」さらに多くの調整作業を行い、最終的には現在よりも優れた調整技術を考案、実装、研究、開発することができます」と別の ブログ投稿。
他の AI をチェックする AI システム
他の AI をチェックする AI システムを開発するという命題はそう思われるかもしれませんが、珍しいことに、OpenAI は、AI システムは人間と比べてアライメント研究においてより速く進歩できると主張しています。このアプローチにより、人間の研究者は時間を節約できるだけでなく、自分自身でアライメントを生成するだけでなく、AI によって行われたアライメント研究のレビューに集中できるようになります。
ただし、OpenAI は潜在的なリスクを認識していることに注意することが重要です。そしてこのアプローチに伴う危険性。さらに、同社は将来の研究の方向性を概説するロードマップを発表する予定です。