據報導,三星已禁止其員工在公司自有設備和內部網絡上使用 ChatGPT 和 Google Bard 等生成式人工智能工具。此舉是在幾週前一些員工無意中通過 ChatGPT 洩露機密信息之後做出的。

三星禁止在官方設備上使用 ChatGPT 和 Bard

與許多其他公司一樣,三星也計劃使用生成式 AI 工具促進業務增長。它希望人工智能能夠幫助提振其搖搖欲墜的芯片業務。然而,事情並沒有按計劃進行。在公司於 3 月中旬向其員工提供 ChatGPT 訪問權限以加快各種流程後不久,有記者發現該人工智能聊天機器人洩露了機密半導體信息。

這是在一些三星員工向人工智能提供內部數據後發生的由微軟支持的 OpenAI 創建的工具。他們犯的錯誤是他們沒有意識到 ChatGPT 和 Bard 之類的公司會永久存儲提供給他們的任何信息。這些工具將這些信息用於學習目的。但在此過程中,他們也可能最終與其他用戶共享信息。由於他們將數據存儲在外部服務器上,三星很難檢索和刪除它。

目前尚不清楚三星員工無意中通過 ChatGPT 洩露了哪些信息。但是,洩漏在三週內發生在三個不同的實例中。該公司現已向員工發送了一份備忘錄,命令他們停止在官方設備和內部網絡上使用人工智能工具。還建議員工不要將任何公司相關信息提供給個人設備上的生成人工智能工具。他們還被禁止共享可能洩露公司知識產權的個人數據。

據彭博社報導,三星已警告其員工,違反這些政策可能會使他們失去工作。 “我們要求你努力遵守我們的安全準則,否則可能會導致公司信息洩露或洩露,導致紀律處分,甚至包括解僱,”備忘錄的一部分寫道。該備忘錄於週一發送給三星最大部門之一的員工,報告 狀態。

三星正在開發自己的 AI 工具供內部使用

p>三星可能已經禁止在其官方設備上使用 ChatGPT 和 Bard,但它仍然認為人工智能在推動其業務方面大有幫助。據報導,該公司正在創建自己的生成式人工智能工具供內部使用。它計劃將這些工具“用於翻譯和總結文檔以及軟件開發”。與此同時,三星也在研究阻止外部人工智能服務獲取敏感公司信息的方法。 ChatGPT 最近添加了一種“隱身”模式,它不會出於學習目的保存對話。

“內部和外部對生成式 AI 平台(例如 ChatGPT)的興趣一直在增長。雖然這種興趣集中在這些平台的實用性和效率上,但人們也越來越擔心生成人工智能帶來的安全風險,”三星告訴員工。 “總部正在審查安全措施,以創造一個安全的環境,以安全地使用生成人工智能來提高員工的生產力和效率。然而,在準備好這些措施之前,我們暫時限制生成人工智能的使用,”備忘錄補充道。

Categories: IT Info