むかしむかし、2 年前の 2021 年に、Google LLC の親会社である Alphabet Inc. は、AI の倫理を研究することを誓いました。 Google には、AI に関する倫理を専門とするグループがすでに存在しており、同社の製品が道徳的にどの程度問題ないかについてフィードバックを提供することに手を出していました。
そのため、2023 年 3 月に Bard が非公開のグループまたは個人に解放される前に、倫理「委員会」は、Bard が限定的なロールアウトの準備ができていないことを Google に納得させるために懸命に取り組んでいました。
しかし、同社は計画どおりに進み、Bard をリリースしました。これは、ChatGPT と Microsoft の OpenAI の既存の競合相手を獲得することだけを目的としているようです。これにより、倫理グループは意気消沈し、混乱に陥りました。多くのキー プレーヤーがすぐに Google を去ったためです。
吟遊詩人は、おしゃべりや情報提供以上のことを行うことができます。構成、コーディング、画像のレンダリングは、その多くの才能の 1 つです。
Bloomberg は、Google が Bard に質の低い情報を提供しているように見えると報告しています。この情報は、調査されたものの特定されていない社内文書と、既存および元倫理グループのメンバーの言葉によって裏付けられています。吟遊詩人と AI 全般に関して、倫理は依然として最優先事項であると主張しています。 Google が何年にもわたって AI に手を出すことを躊躇してきたことを考えると、それは理にかなっています。まさにモラルのジレンマのためです。
しかし、同社がマナーに対する全体的な姿勢を変えるには、競争の激化という条件が必要だったようです。 ChatGPT と OneAI、そしてその他の AI は、Google 自身の研究なしには存在しなかったでしょう。では、材料を育てたのなら、おいしいパイのかけらを欲しがるのは間違っているのでしょうか?
Google の吟遊詩人: 病的なうそつきか、それとも早習生か?
Bard を搭載した独自の機能を多数備えた Pixel X Pro を想像してみてください。それは製品ではありませんか?
そして Google は、Bard をリリースする前に、すべての安全性チェックが実施されたと強く信じています… 製品ではなく実験として.このラベルは一種のリスク防止ですか?もしそうなら、Docs、Slides、Gmail、YouTube などのサービス (事実上スタンドアロン製品である) に、前述の実験によって強化された多数の機能を期待できるのはどうしてでしょうか?それは倫理的ですか?
Google の倫理グループは対応に躊躇しています。伝えられるところによると、彼らは「プロセスを遅らせようとしているだけです」という反応を受け取っているため、発言して議論することをためらっています。倫理はビジネス ベンチャーに二の足を踏んでいますか?思考の糧。
3 月に Bard をリリースする前に、Google はフィードバックを収集するために、従業員に AI への内部アクセスを許可しました。 Google の従業員が Bard について言わなければならなかったことの一部を以下に示します: 病的なうそつきひどい価値のある提供されたアドバイスは惨事に終わるだろう”… 役に立たないよりも悪い: 起動しないでください”
Google はとにかく Bard を起動しました。しかし、ここに別の見方があります。限定的ではありますが、パブリック アクセスは、吟遊詩人が自分自身を学び、修正する機会です。結局のところ、Google はアルゴリズムの面で多作なので、ChatGPT が過去に行ったように、これらすべてが Bard を学習させ成長させるための実際の計画の一部であるという現実を想像するのは、とてつもないことでしょうか?
繰り返しますが、考える材料です。