ChatGPT の開始以来、ChatGPT のような AI チャットボットが優勢になってきました。ただし、これらのチャットボットの普及は、問題が発生していることも意味します。実際、OpenAI は ChatGPT の能力で世界を驚かせました。このため、その使用には多くの反対があり、法廷闘争を伴うものさえあります.ただし、ChatGPT の母国である米国では、法律は ChatGPT を保護するだけかもしれません。 1996 年に公布された米国通信品位法第 230 条では、企業は、プラットフォーム上で第三者またはユーザーによって公開されたコンテンツに対して法的責任を負う必要はないと規定されています (第 230 条)。

しかし、米国最高裁判所は、今後数か月以内にこの保護を弱めるかどうかを決定する予定です。これは、ChatGPT などの AI チャットボットにも影響を与える可能性があります。裁判官は 6 月末までに、Alphabet が所有する YouTube がユーザーに動画を推奨したとして訴えられるかどうかについて判決を下す予定です。プラットフォームはユーザーがアップロードした動画に対する責任を免除されていますが、アルゴリズムを使用してコンテンツをユーザーに推奨する場合、第 230 条の保護は引き続き適用されますか?

技術と法律の専門家は、この訴訟はソーシャル メディア プラットフォーム以外にも影響を与えると述べています。 AI チャットボットを開発する OpenAI や Google などの企業が、名誉毀損やプライバシーの侵害などの法的請求から免責されます。専門家は、ChatGPT などで使用されているアルゴリズムが、YouTube ユーザーに動画を推奨する方法と似ているためだと指摘しています。膨大な量のオリジナル コンテンツを生成するためであり、第 230 条は通常、サード パーティのコンテンツに適用されます。裁判所は、AI チャットボットの応答が保護されるかどうかをまだ検討していません。民主党の上院議員は、ジェネレーティブ AI ツールは「コンテンツを作成する」ため、免責の権利は適用できないと述べました。 「セクション 230 は、ユーザーと、ユーザーの発言をホストおよび整理する Web サイトを保護することに関するものです。自社の行動や製品の結果から企業を守るべきではありません」と彼は言いました。クエリに基づいて既存のコンテンツをユーザーに提供します。 「AI は実際には何も作成しません。既存のコンテンツを別の方法または別の形式で提示しているだけです」と、テクノロジー業界の業界団体 NetChoice のバイスプレジデント兼法務顧問である Carl Szabo 氏は述べています。 AI 開発者にとって不可能なタスクを作成します。これはまた、イノベーションを抑圧する可能性のある訴訟の洪水にさらされることにもなります。一部の専門家は、裁判所が中立的な立場を取り、AI モデルが潜在的に有害な反応を生成する状況を調査する可能性があると推測しています。

Gizchina の今週のニュース

AI モデルが既存の情報源を説明できるように見える場合、免除の特典が引き続き適用される場合があります。しかし、ChatGPT のようなチャットボットは誤った回答を生成することが知られており、専門家によると、これは保護されていない可能性があります。カリフォルニア州バークレー校は、AI 開発者が「プログラムし、トレーニングし、展開する」モデルをめぐる訴訟を免れるべきであると考えるのは大げさであると述べました。

「企業が民事訴訟で責任を負うことができる場合、彼らはより安全な製品;

ChatGPT などの AI ツールに関する問題

AI チャットボットは、今日の世界で非常に人気があります。これは、人々が対話するための効率的で便利な方法を提供するためです。これらのチャットボットは、自然言語を処理し、クエリに関連する応答を提供することができます。これにより、顧客サービス、販売、およびサポートに役立つツールになります。ただし、主にプライバシーとセキュリティの観点から、AI チャットボットを使用することの安全性について懸念が提起されています。

AI チャットボットに関する主な懸念の 1 つは、データ侵害とサイバー攻撃の欠如です。チャットボットは、名前、住所、支払いの詳細などの個人情報の提供をユーザーに要求することが多いため、この情報が盗まれるリスクがあります。このリスクを軽減するには、企業はチャットボットが安全であることを確認し、暗号化方式を使用してユーザー データを保護する必要があります。

AI チャットボットのもう 1 つの問題は、システムが偏見に屈する可能性があることです。これらのチャットボットは人間によってプログラムされているため、社会に存在する偏見やステレオタイプである可能性があります。たとえば、求職者をスクリーニングするように設計されたチャットボットは、人種、性別、または民族性に基づいて特定のグループを差別する場合があります.これを回避するには、チャットボットの開発者は、アルゴリズムがほぼ完璧で偏りがないことを確認する必要があります。

また、AI チャットボットが複雑なクエリを処理できないリスクもあります。これには、メンタルヘルスや家庭内虐待に関連するものも含まれます。このような場合、ユーザーは必要なサポートを受けられない可能性があります。もちろん、これは人々がこれらのチャットボットに責任を負わせたい分野の 1 つです。

おわりに

これらの懸念にもかかわらず、AI チャットボットは適切に使用すれば安全に使用できます。一部の人々は、AI チャットボットを使用して医師や他の専門家に取って代わりたいと考えています。これらは、このツールの理想的な用途ではありません。開発者側では、偏見を絶対に避け、システムが包括的であることを確認する必要があります。また、チャットボットは人間の存在なしで動作するように放置されるべきではありません.必要に応じて、時々チェックしてアップグレードする必要があります。安全に使用できるようにするために、開発者は、セキュリティ、プライバシー、バイアス、およびチャットボットの制限に関する懸念に対処する必要があります。適切なツールがあれば、AI チャットボットは非常に簡単に情報を検索できます。また、情報に関してなんらかの支援が必要な多くの人々にとって、かなりまともなアシスタントになる可能性もあります。

出典/VIA:

Categories: IT Info