人工知能の普及率を見ると、私たちはそのような事業を行う準備ができていると思われるでしょう。 ChatGPT の登場後、世界のほとんどが大規模に AI に注目し始めたばかりですが、AI を利用したアプリケーションはかなり急速に標準になりつつあります。しかし、AI には無視できない重大な問題があります。AI 幻覚または人工幻覚です。 AI チャットボットを使用する前に細かい部分に注意を払ったことがあれば、「AI は幻覚を起こしやすい」という言葉に出くわしたことがあるかもしれません。 AI の使用が指数関数的に増加していることを考えると、これらが正確に何であるかについて自分自身を教育する時が来ました。 AI 幻覚とは? AI の幻覚とは、大まかに言えば、AI が自信を持って提示した事実を指しますが、そのトレーニング データには正当な理由がありません。これらは通常、AI モデルの異常の結果です。 この類推は、人間が外部環境に存在しない何かを知覚する、人間が経験する幻覚から取られています。この用語は完全には当てはまらないかもしれませんが、これらのアウトプットの予想外またはシュールな性質を説明するメタファーとしてよく使用されます。 しかし、このアナロジーは、 AI の幻覚を理解すると、この 2 つの現象は技術的に何マイルも離れています。皮肉なことに、ChatGPT 自体でさえ、アナロジーが間違っていることに気づきました。それを分子レベルで分析すると、AI言語モデルは個人的な経験や感覚的知覚を持たないため、伝統的な言葉の意味での幻覚を起こすことはできない.親愛なる読者は、この重要な違いを理解する必要があります。さらに、ChatGPTは、この現象を説明するために幻覚という用語を使用すると、主観的な経験または意図的な欺瞞のレベルを不正確に示唆する可能性があるため、混乱を招く可能性があると述べています. 代わりに、AI の幻覚は、応答の誤りまたは不正確さとしてより正確に説明でき、応答が不正確または誤解を招く可能性があります。チャットボットでは、AI チャットボットが事実をでっち上げ (または幻覚)、絶対的な確実性として提示することがよく観察されます。 AI 幻覚の例 幻覚は、さまざまな AI Read more…