圖片:Nacon Studio Milan
一位人工智能專家聲稱這封信(由 Future Of Life 發表由埃隆·馬斯克和 1600 多人簽署的 Institute) 嚴重低估了這一情況。 Eliezer Yudkowsky 是一名決策理論家,在機器智能研究所領導研究,在該領域擁有超過 20 年的經驗。這位 AI 專家在時代雜誌的一篇專欄文章中抨擊了這封信,指出相對於研究當前 AI 的行為需要多長時間,暫停 6 個月的 AI 訓練是嚴重不足的。
來自時間:
“2 月 7 日,微軟首席執行官 Satya Nadella 公開幸災樂禍新的 Bing 會讓 Google“出來展示他們會跳舞”。 “我想讓人們知道我們讓他們跳舞,”他說。
這不是微軟 CEO 在一個理智的世界裡說話的方式。它顯示了我們對待這個問題的認真程度與我們需要從 30 年前開始認真對待這個問題之間的巨大差距。
我們不會彌合那個六個月的差距。
從人工智能的概念首次提出和研究到我們達到今天的能力,用了 60 多年的時間。解決超人智能的安全問題——不是完美的安全問題,“不殺死每個人”意義上的安全問題——可能需要至少一半的時間。“
不是你,是我
Eliezer 的回應澄清了 AI 不會根據情感做出消滅地球上所有生命的決定,而是“AI 不愛你,也不恨你,你是由原子組成的它可以用於其他用途。“
專家繼續解釋那些開發 AI 的人是如何根本沒有 AI 對齊的計劃,或者打算讓 AI 的未來迭代實現他們自己的 AI 對齊。 AI 對齊是一個術語,per ai-alignment.com,指的是 AI 與意圖對齊
“OpenAI 公開聲明了意圖是讓一些未來的人工智能做我們的人工智能對齊作業。只要聽到這是計劃,就足以讓任何明智的人感到恐慌。另一個領先的 AI 實驗室 DeepMind 根本沒有任何計劃。”
AI 的自我意識狀態非常令人擔憂,但目前尚不清楚未來或當前需要多長時間, AI 版本將達到它。 Eliezer 承認 GPT-4 可能只是在模仿數據以產生自己的響應,但還沒有進行足夠的研究來了解它的發展方向,並進一步批評其開發人員對它的無知。
“如果那是我們的狀態對 GPT-4 的無知,而 GPT-5 與從 GPT-3 到 GPT-4 的巨大能力步長相同,我認為如果我們讓我們不再能夠合理地說“可能沒有自我意識”人們製造 GPT-5。只會是“我不知道;沒人知道。”如果你不能確定你是否在創造一個有自我意識的人工智能,這將是令人擔憂的,不僅因為“自我意識”部分的道德含義,而且因為不確定意味著你不知道自己在做什麼那很危險,你應該停下來。”
一點天網大有幫助
專家不會在厄運和憂鬱中退縮,並且有充分的理由。在考慮一些令人不安的聊天機器人響應的令人震驚的實例時,包括最近與穀歌的 Bard 和新改進的 Bing,以及 Tay,微軟在 2016 年對 Twitterbot 的早期嘗試,有很多好的聊天機器人變壞的例子。畢竟有一句老話,垃圾進,垃圾出。
“我們還沒有準備好。我們不會在任何合理的時間窗口內做好準備。沒有計劃。 AI 能力的進步是巨大的,遠遠領先於 AI 對齊的進步,甚至是理解這些系統內部到底發生了什麼的進步。如果我們真的這樣做,我們都會死。”
最終專家說,我們,整個世界,需要無限期地停止所有人工智能訓練,並研究它已經在哪裡在其發展中。需要製定國際協議來製定和執行法律,懲罰繼續創建 AI 計算機農場(又名 GPU 集群)的違規者。這包括跟踪所有出售的 GPU 並監控任何特定國家/地區擁有的數量,並在發現違規者時使用軍事行動將其消滅。
在我們的論壇上加入對這篇文章的討論…
p>