Google Bard が非常に性急な製品であることは否定できません。結局のところ、この検索の巨人は、ChatGPT のローンチ後に人気が高まったことに非常に親しみを感じていました。そのため、Google は競合他社を追い出すために必要なことは何でもしなければなりませんでした。このラッシュが、Google Bard の立ち上げがこれほど大きな失敗に終わった唯一の理由かもしれません。
実際、Bloomberg の新しいレポートによると、Google の現在および元従業員のうち 18 人がGoogle Bardに関する忌まわしい解説。最も重要なことは、彼らの多くが AI に関して大きな懸念を抱いていることです。言い換えれば、内部チームでさえ、AI のローンチがいかに悪かったかを知っています。
Google Bard に関する倫理的懸念
インタビューによると、AI である Google Bard をローンチするには倫理チームは「力を失い、意気消沈した」。 Google は、適切なフィードバックを得るために、プレリリース段階で Bard をテストするよう従業員に依頼しました。しかし、インタビューに応じた Google 社員は、AI チャットボットを迅速に立ち上げるためにほとんどのフィードバックは無視されたと主張しています。
今週の Gizchina ニュース
Bloomberg は、従業員が Google Bard を「病的なうそつき」で「屈辱的」と呼んだ社内の議論を見ました。たとえば、AI モデルが飛行機の着陸方法を指示するように求められたとき、AI モデルは最終的に墜落につながる誤った手順を示しました。
ある従業員が Bard にスキューバダイビングの指示を求めたところ、最終的に彼らは重傷を負ったり、殺されたりしたでしょう。そして最後に、1 人の従業員が 2 月に「吟遊詩人は役に立たないよりも悪い: 起動しないでください」というタイトルの投稿を書いて、AI の問題をまとめました。
しかし、Google は最終的に 3 月に吟遊詩人を起動しました。はい、ChatGPT でさえ 100% 信頼できるわけではありません。しかし比較すると、Bard は ChatGPT に大きく遅れをとっています。そして、この失敗の背後にある AI 倫理チームのリーダーを責めることはできません。ブルームバーグは、近年、倫理リーダーの何人かが解雇されたか、会社を去ったと報告しました。そして今日、Google での AI 倫理審査は「ほぼ完全に任意」です。
出典/VIA: