英國國家網絡安全中心 (NCSC) 正在提醒公眾注意 ChatGPT 的危險。這種人工智能模型在幾個月前推出後就廣受歡迎。在它向公眾開放後,大量的人蜂擁而至,以各種方式嘗試它的能力。

有些人詢問特定菜餚的食譜、作業問題的答案和其他隨機問題。這個人工智能模型對拋出的各種問題的反應讓很多人感到驚訝。因此,越來越多的人想要嘗試ChatGPT,從而提高了它的知名度。

現在運行這個人工智能模型的系統已經升級。 GPT-4 系統改進了依賴它的各種人工智能模型的對話能力。隨著這種人工智能模型越來越多地被採用,它是否會對社會構成任何危險? 最近的更新強調了一些,讓我們仔細看看這些危險。

根據國家網絡安全中心 (NCSC) 的說法,這裡是 ChatGPT 的危險

英國國家網絡安全中心 (NCSC) 已提醒公眾注意 ChatGPT 的危險。他們通過最近的博客做到了這一點在他們的官方網站上發帖,他們深入研究了 ChatGPT 和大型語言模型 (LLM)。

隨著這些人工智能模型越來越受歡迎,有必要了解它們所帶來的風險可能構成。好吧,英國國家網絡安全中心 (NCSC) 進行了這項研究,以幫助啟發公眾。根據他們的發現,ChatGPT 和其他 LLM 的用戶將了解這些人工智能模型可以選修哪些專業。

對於人工智能模型,首先要記住的觀察結果之一是,它們可能是誤導。他們為用戶的請求提供的一些信息可能是錯誤的、有偏見的、暴力的等等。因此,ChatGPT 和其他 LLM 的用戶應該注意他們從這些人工智能模型中消費的內容。

有還需要注意您與這些平台共享的信息類型。國家網絡安全中心 (NCSC) 建議不要與 ChatGPT 或其他 LLM 共享敏感信息。這些平台可能不會洩露用戶信息,但他們可以訪問用戶查詢並且可以被黑客攻擊,從而將這些查詢洩露給公眾。

因此,盡量不要向此類平台詢問非常敏感的問題對您的個人生活或工作。 ChatGPT 和其他 LLM 的危險還包括網絡罪犯和不良行為者如何利用它。因此,當您嘗試新的或現有的大型語言模型時,了解它們帶來的風險很重要。

Categories: IT Info