自 ChatGPT 推出以來,像 ChatGPT 這樣的 AI Chatbots 一直佔據優勢。然而,這些聊天機器人的普及也意味著問題正在醞釀之中。事實上,OpenAI 憑藉 ChatGPT 的能力震驚了世界。出於這個原因,對其使用提出了很多反對意見,有些甚至涉及法律糾紛。然而,在 ChatGPT 的母國美國,法律可能只是保護 ChatGPT。美國1996年頒布的《通信規範法》第230條規定,公司無需對第三方或用戶在其平台上發布的內容承擔法律責任(第230條)。
不過,美國最高法院將在未來幾個月內決定是否削弱這種保護。這也可能對 ChatGPT 等 AI 聊天機器人產生影響。預計法官將在 6 月底之前裁定是否可以起訴 Alphabet 旗下的 YouTube 向用戶推薦視頻。雖然平台對用戶上傳的視頻不承擔責任,但當它們使用算法向用戶推薦內容時,230 條款的保護是否仍然適用?
技術和法律專家表示,此案的影響超出了社交媒體平台。他們認為,該判決可能會引發新的爭論,即 OpenAI 和 Google 等開發人工智能聊天機器人的公司是否可以成為免受誹謗或侵犯隱私等法律索賠。專家指出,這是因為 ChatGPT 和其他公司使用的算法類似於它向 YouTube 用戶推薦視頻的方式。
AI 聊天機器人做什麼?
AI 聊天機器人經過訓練生成大量原創內容,而第 230 條通常適用於第三方內容。法院尚未考慮人工智能聊天機器人的反應是否會受到保護。一位民主黨參議員表示,豁免權不適用於生成性人工智能工具,因為這些工具“創造內容”。 “第 230 條是關於保護用戶以及託管和組織用戶言論的網站。它不應該使公司免受其自身行為和產品的後果,”他說。
科技行業一直在推動保留第 230 條。有些人認為像 ChatGPT 這樣的工具就像搜索引擎,服務於根據查詢向用戶提供現有內容。 “人工智能並沒有真正創造任何東西。它只是以不同的方式或不同的格式呈現現有內容,”科技行業貿易集團 NetChoice 的副總裁兼總法律顧問 Carl Szabo 說。
Szabo 說,如果第 230 條被削弱,它對於 AI 開發人員來說,這將是一項不可能完成的任務。這也將使他們面臨大量可能扼殺創新的訴訟。一些專家推測,法院可能會採取中立立場,審查 AI 模型產生潛在有害反應的背景。
Gizchina 本週新聞
在 AI 模型似乎能夠解釋現有來源的情況下,豁免利益可能仍然適用。但眾所周知,像 ChatGPT 這樣的聊天機器人會生成錯誤的答案,專家稱這些答案可能不受保護。
Hanny Farid,技術專家兼大學教授。加州大學伯克利分校的教授表示,認為 AI 開發人員應該免於因他們“編程、訓練和部署”的模型而受到訴訟的想法是牽強的。
“如果公司可以在民事訴訟中承擔責任,他們就更安全的產品;如果它們被豁免,那麼產品往往不那麼安全,”Farid 說。
ChatGPT 等 AI 工具的問題
AI 聊天機器人現在在當今世界非常流行。這是因為它們為人們提供了一種高效便捷的交互方式。這些聊天機器人能夠處理自然語言並對查詢提供相關響應。這使它們成為客戶服務、銷售和支持的有用工具。然而,人們對使用人工智能聊天機器人的安全性提出了擔憂,主要是在隱私和安全方面。
人工智能聊天機器人的主要擔憂之一可能是數據洩露和網絡攻擊的漏洞。由於聊天機器人通常要求用戶提供姓名、地址和付款詳情等個人信息,因此存在這些信息被盜的風險。為了降低這種風險,公司必須確保他們的聊天機器人是安全的,並使用加密方法來保護用戶數據。
AI 聊天機器人的另一個問題是系統可能會陷入偏見。由於這些聊天機器人是由人類編寫的,它們可能是社會中存在的偏見和刻板印象。例如,旨在篩選求職者的聊天機器人可能會根據種族、性別或種族歧視某些群體。為避免這種情況,聊天機器人開發人員必須確保他們的算法接近完美且沒有偏見。
此外,AI 聊天機器人可能無法處理複雜的查詢也存在風險。這包括那些與心理健康或家庭虐待有關的問題。在這種情況下,用戶可能得不到他們需要的支持。當然,這是人們希望這些聊天機器人負責的領域之一。如果他們在某些情況下給出錯誤的響應,結果可能會非常糟糕。
最後的話
儘管存在這些擔憂,但如果正確使用,AI 聊天機器人可以安全使用。有些人想用人工智能聊天機器人來代替醫生和其他專家。這些都不是該工具的理想用途。就開發人員而言,他們必須不惜一切代價避免偏見,並確保系統具有包容性。此外,不應讓聊天機器人在沒有人在場的情況下工作。如果需要,應不時檢查和升級它們。為確保安全使用,開發人員必須解決有關安全、隱私、偏見和聊天機器人限制的問題。有了合適的工具,人工智能聊天機器人可以非常輕鬆地搜索信息。對於許多需要某種信息幫助的人來說,它也可能是一個相當不錯的助手。
來源/VIA: