現段階での会話型 AI チャットボットの問題の 1 つは、幻覚を見る傾向があることです。つまり、ユーザーの要望に合わせて情報を作り上げているのです。 ChatGPT は、ユーザーに質問に対する回答を提供するように設計された言語モデルです。その際、AI チャットボットは、たとえ思いついた内容が真実でなくても、空白を埋める情報を見つけ出します。

ニューヨーク タイムズ (マッシャブル)は、レビドーのスティーブン・シュワルツという弁護士について報じた。 30年間弁護士として働いてきたレビドー&オーバーマン夫妻。しかし、ChatGPT のおかげで、シュワルツさんは新しい職業を探すことができました。ご存知のとおり、シュワルツ氏は、飛行中にサービスカートが衝突して膝を負傷した後、コロンビアを拠点とする航空会社アビアンカ航空を訴えていたロベルト・マタという顧客の代理人を務めていました。

ChatGPT を使用するというシュワルツ氏の決定は、潜在的な可能性をもたらす可能性があります。マタは30年の弁護士としてのキャリアを失った

アビアンカ航空は裁判官に訴訟を却下するよう求めたが、シュワルツを含むマタの弁護士は、その試みとして法廷で審理された同様の訴訟を含む準備書面を提出した。訴訟が却下されるべきではないことを裁判官に証明するため。しかし、ここで ChatGPT と Schwartz が失敗しました。シュワルツ氏は、最初に州裁判所に訴訟が提起されたときに訴訟を起こし、マンハッタンの連邦裁判所に移送されたときに法的調査を提供した。

ある弁護士は ChatGPT を使用して「法的調査」を行い、存在しない多数の事件を引用した。提出書類を提出し、現在裁判官と多くの問題を抱えている pic.twitter.com/AJSE7Ts7W7

— ダニエル フェルドマン (@d_feldman) 2023 年 5 月 27 日

シュワルツ氏は、提出書類を充実させたいと考え、法廷に持ち込まれた同様の訴訟を見つけるために ChatGPT を利用しました。 ChatGPT はこれらの訴訟のリストを作成しました: ヴァルギース対中国南方航空、シャブーン対エジプト航空、ピーターセン対イラン航空、マルティネス対デルタ航空、エステート・オブ・ダーデン対KLMオランダ航空、ミラー対ユナイテッド航空。これは裁判官に引用するのに適した事件のリストのように思えます。ほんの小さな問題が 1 つだけありました。それらの事件はどれも真実ではありませんでした。すべて ChatGPT によってでっち上げられました。

弁護士は決してAI チャットボットが彼に偽の情報を提供する可能性があると考えた

アビアンカ航空の法務チームと判事は、シュワルツ氏の申し立てで引用された訴訟がどれも見つからないことにすぐに気づきました。シュワルツ被告は法廷に提出した文書で、ChatGPTとのやり取りのスクリーンショットを添付し、会話型AIチャットボットに関する限り「その内容が虚偽である可能性については認識していなかった」と述べた。

これは、AI に仕事の一部を任せようと考えている人への警告です。時間を節約していると思うかもしれませんが、自分の努力を AI チャットボットの結果に置き換えると、さらに問題が発生する可能性があります。私は自分の記事が AI によって書かれることを決して望んでいません。AI を使用することで自分自身を傷つけるだけでなく、自分が書いていないものの著者であると主張することで、または作成した記事を視聴者に提供している可能性があるため、視聴者に嘘をついていることになります。

あなたが AI チャットボットを使って論文作成を手助けしようと考えている学生であっても、訴訟を提起したいと考えている弁護士であっても関係ありません。 AI チャットボットは幻覚を見せ、偽の情報を与える可能性があります。だからといって、それらが役に立たないというわけではなく、正しい方向に導くことができるかもしれません。ただし、指摘が完了したら、取得している情報が正当なものであるかどうかを確認するのはあなた次第です。

Categories: IT Info