Google 員工在使用 AI 聊天機器人(包括公司的工具 Bard)時應更加謹慎。這家科技巨頭擁有 向 谷歌員工發出警告,警告他們與 AI 聊天機器人共享業務數據。
使用 AI 驅動的聊天機器人正在用戶中蓬勃發展。然而,即使是員工有時也會使用這些工具來收集有關某個主題的信息或解決故障。問題是員工可能會與聊天機器人共享公司機密數據。如您所知,與聊天機器人共享的數據保留在聊天機器人服務器中,並將用於豐富數據庫。
4 月初有報導稱,ChatGPT 在公司員工共享源代碼後洩露了三星半導體信息用工具。當時,三星採取了預防措施,以防止未來發生類似事件。現在,谷歌正在走同樣的路,要求員工不要將機密材料輸入人工智能聊天機器人。
Google 員工不應將機密數據輸入 AI 聊天機器人
這家科技巨頭還要求工程師和程序員不要使用 AI 聊天機器人生成的代碼.谷歌指出,它更願意對其產品的局限性保持透明,同時知道 Bard 可能會提出不需要的代碼建議。
“不要在與 Bard 的對話中包含機密或敏感信息,”谷歌在其更新的隱私中指出notice.
Google Bard 仍然是該公司的“實驗性”產品,該公司的目標是在未來幾年擴展到更多市場。 Bard 很快將在 180 個國家/地區以 40 種語言推出。
不出所料,歐洲監管機構最近要求谷歌在正式推出 Bard 之前解釋其對隱私的影響。該公司與愛爾蘭的數據保護委員會會面討論了這個話題。
谷歌在搜索市場上與微軟的競爭對該公司來說變得越來越敏感。依靠 ChatGPT 和 OpenAI 計劃,微軟正在將必應變成谷歌搜索的頑固競爭對手。在未來幾年,傳統的搜索引擎可能會被淘汰,取而代之的是 AI 聊天機器人。