英国の国家サイバー セキュリティ センター (NCSC) は、ChatGPT の危険性について一般に警告しています。この人工知能モデルは、数か月前の発売後に人気を博しました。一般に公開された後、多くの人がその能力をさまざまな方法で試してみました.
特定の料理のレシピ、課題の質問への回答、その他のランダムな質問を求める人もいました.投げかけられたさまざまな質問に対するこの人工知能モデルの反応は、多くの人々を驚かせました。このため、ChatGPT を試してみたいという人が増え、その人気が高まっています。
現在、この人工知能モデルを実行するシステムがアップグレードされました。 GPT-4 システムは、それに依存するさまざまな人工知能モデルの会話能力を向上させます。この人工知能モデルの採用の増加に伴い、社会にもたらす危険はありますか? 最近の更新では、いくつかハイライトされています。これらの危険性を詳しく見てみましょう。
National Cyber Security Center (NCSC) によると、ChatGPT の危険性は次のとおりです
英国の National Cyber Security Center (NCSC) は、ChatGPT の危険性を一般に警告しています。彼らは最近のブログでこれを行いましたChatGPT と大規模言語モデル (LLM) を掘り下げた公式ウェブサイトに投稿します。
これらの人工知能モデルの人気が高まるにつれて、それらのリスクを知る必要があります。ポーズするかもしれません。さて、英国国立サイバー セキュリティ センター (NCSC) は、一般の人々を啓蒙するために調査を行いました。彼らの調査結果から、ChatGPT やその他の LLM のユーザーは、これらの人工知能モデルでどの専攻を取るべきかを知ることができます。誤解を招く。ユーザーの要求に対して提供する情報の一部は、間違っている、偏っている、暴力的であるなどの可能性があります。このため、ChatGPT やその他の LLM のユーザーは、これらの人工知能モデルから消費するコンテンツに注意する必要があります。
また、これらのプラットフォームと共有する情報の種類にも注意する必要があります。 National Cyber Security Center(NCSC)は、ChatGPT や他の LLM と機密情報を共有しないようアドバイスしています。これらのプラットフォームはユーザー情報を開示しない可能性がありますが、ユーザー クエリにアクセスでき、ハッキングされる可能性があるため、これらのクエリが一般に公開されます。
このため、このようなプラットフォームには非常に機密性の高い質問をしないようにしてください。私生活や仕事に。 ChatGPT やその他の LLM の危険性には、サイバー犯罪者や悪意のある人物がそれを利用する方法も含まれます。そのため、新規または既存の大規模言語モデルを試す際には、それらがもたらすリスクを理解することが重要です。