人工知能の戦いは、Bing ChatGPT チャットボットのライバルである Google の Bard AI チャットボットの誕生につながりました。しかし、Google の一部の従業員は、雇用主が求めているように Bard のことをあまり考えていないようです。吟遊詩人が人々から拒否された理由は正確には何でしょうか?
まあ、多くの人は次のように主張するかもしれません レポートでは、Google の従業員の数はごくわずかしか言及されていません。吟遊詩人を蹴っているこのリストを構成している何人かは、元 Google スタッフです。しかし、反対派の規模に関係なく、彼らの嫌悪の理由を考慮に入れることは賢明な方法です。
それは、人々が使用した場合の吟遊詩人 AI チャットボットの能力に要約されます。概説した問題は、Bard の最大のライバルである Bing AI チャットボットにも当てはまります。面白いことに、Google のスタッフはこの AI プラットフォームを「役に立たないより悪い」とラベル付けしました。これは Google 社員からすると少し厳しすぎるように聞こえるため、Bard のパフォーマンスにより多くの注目が集まっています。
Google の吟遊詩人 AI チャットボットの誤解を招くような反応により、メーカーからの厳しい調査が行われました
過去数か月間、Microsoft は見出しを作りましたChatGPT をブラウザに統合した結果です。これにより、AI チャットボットが Bing と Skype に導入されましたが、ユーザーはいくつかの欠陥を見つけることができました。これらの欠陥は、Bing AI チャットボットが会話の限界を認識せず、ユーザーを脅迫し、情報を改ざんした結果として発生します。
Microsoft が ChatGPT の Bing への統合を発表した直後に、Google はすでに発表の準備をしていました。 Bard AI チャットボット。さて、Google の従業員は AI チャットボットの登場後、顕著な欠陥を指摘しているようです。
これらの欠陥は、ChatGPT チャットボットで脚光を浴びたものと非常によく似ています。吟遊詩人は現在、ユーザーに虚偽の情報を提供し、危険なアドバイスを与えるため、ユーザーの安全を脅かしています。 Google のラッシュは、従業員が Bard の使用法で指摘しているこれらの問題の主な原因である可能性があります。
レポート によると、社内の安全チームはチャットボットを起動しないようにアドバイスしていました。代わりに、これらの欠陥を修正して、より安定したユーザーフレンドリーな製品の発売を促進します。現在、Google はこれらの問題の修正に集中して、この製品を使用しているユーザーが検索に対して安全かつ正確な応答を得られるようにする必要があります。
Microsoft の Bing AI チャットボットと同様に、Bard にはいくつかの欠陥。多くの人は、新しい AI 製品ではそれが普通だと主張するかもしれませんが、そのような問題により、特定の国では AI チャットボットを禁止するようになっています。 AI チャットボット業界は、大多数が安全に使用できると認める前に、改良を行う必要があります。