技術日新月異,人工智能是備受關注的領域之一。然而,並不是每個人都對這些進步的影響感到滿意。三星電子公司是全球最大的科技公司之一,已禁止其員工使用流行的人工智能生成工具。該決定是在公司發現敏感代碼被上傳到平台後做出的。這可能會導致安全漏洞。
出於安全考慮,三星禁止員工使用 ChatGPT 等人工智能工具
使用生成式人工智能平台,例如ChatGPT 在內部和外部都在不斷發展。然而,三星擔心與此類技術相關的風險。通過這些平台傳輸到外部服務器的數據可能難以檢索和刪除,這可能導致未經授權的披露。該公司進行了 上個月的調查。據透露,65% 的受訪者認為人工智能服務會帶來安全風險。
今年早些時候,一些華爾街銀行,包括摩根大通、美國銀行和花旗集團,限製或禁止使用OpenAI 的聊天機器人服務出於類似的考慮。出於對隱私的擔憂,其他公司也禁止使用 ChatGPT,儘管它後來改變了決定。
三星的新政策禁止在公司自有設備和內部網絡上使用生成人工智能係統。但是,這並不影響公司向消費者銷售的設備。該公司還警告在個人設備上使用 ChatGPT 和類似工具的員工不要提交任何可能洩露其知識產權的公司相關信息或個人數據。
不遵守新政策可能會導致紀律處分行動,包括終止僱傭關係。該公司正在創建自己的內部人工智能工具,用於翻譯和總結文件,以及軟件開發。它還在研究禁止將敏感的公司信息上傳到外部服務的方法。
導致違規的平台 ChatGPT 添加了一種“隱身”模式,允許用戶阻止他們的聊天被公開用於AI模型訓練。三星正在審查安全措施,以創建一個安全的環境,以便使用生成式人工智能來提高員工的生產力和效率。在這些措施到位之前,該公司暫時限制了生成人工智能的使用。
Gizchina 本週新聞
在外部服務器上存儲數據的風險和意外洩漏促使三星採取行動
三星的決定是生成式人工智能技術傳播的重大挫折在工作場所。然而,它並不是唯一一家對該技術風險表示擔憂的公司。人工智能平台的使用正在迅速增長,企業必須在潛在收益與潛在風險之間取得平衡。
隨著技術不斷進步,企業必須對與新技術相關的風險保持警惕。使用人工智能平台可能是有益的,但公司必須確保他們負責任地使用它們並採取適當措施保護敏感數據。三星決定禁止使用生成式人工智能工具是朝著正確方向邁出的一步。其他公司可能會效仿。
與生成式 AI 平台相關的安全風險的一個潛在解決方案是開發安全的內部工具。通過創建自己的內部人工智能工具,公司可以確保敏感數據保留在自己的網絡中。降低未經授權訪問的風險。此外,公司可以根據自己的特定需求定制這些工具,而外部平台可能無法做到這一點。雖然開發這些工具可能需要額外的資源,但就提高安全性和生產力而言,長期收益可能超過成本。三星已經在朝著這個方向採取措施。隨著對 AI 平台相關安全風險的擔憂不斷增加,其他公司可能會效仿。
總而言之,三星決定禁止使用生成式 AI 工具是此類技術傳播的重大挫折在工作場所。但是,這是解決與這些平台相關的安全風險的必要步驟。公司必須對與新技術相關的風險保持警惕,並採取適當措施保護敏感數據。隨著技術的不斷進步,必須在與新技術相關的潛在利益和風險之間取得平衡。
來源/VIA: