AI 帶來的人類滅絕威脅堪比大流行病或核戰爭。
這一警告來自一群專家,包括 AI 科學家、教授和科技名人,包括 Google/Alphabet(和 DeepMind)、OpenAI(ChatGPT 的製造商)的高層成員,以及微軟的 CTO 和首席科學官(目前 AI 的最大支持者之一,與 Bing,現在是 Copilot ).
它還包括一群編寫了有關 AI 和深度學習的首選教科書的作者,以及三位圖靈獎獲得者,以及許多其他人。這是相當重量級的支持。
AI 安全中心正式發布的聲明簡短而親切,內容如下:
“減輕 AI 滅絕的風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”
這是近期一系列警告中的最新一個,為科技界提供了強有力的理由謹慎對待 AI 的進步,而不是一味地埋頭苦幹,不管怎樣-這似乎是迄今為止的誘惑。
Google 和 Microsoft 都在各自的 Bard 和 Bing 上絕對向前邁進AI 盡可能快,比起這種進步可能對整個社會產生的影響,更擔心落後於競爭對手的聊天機器人。
因此,看到來自這些領域的傑出高管特別有趣簽署這份聲明的公司,儘管表示擔憂是一回事,而對此採取行動又是另一回事。 (這可能會阻礙您繼續主導搜索的最新和最大希望-或者挑戰谷歌在微軟的案例中的主導地位-以及整個網絡)。
Twitter 上的反應可以預見地兩極分化:這要么是非常令人擔憂,或者它是危言聳聽和散佈恐懼。
儘管公平地說,並且冒著陳述非常明顯的風險,但發生的很多事情都將歸結為我們如何使用 AI。換句話說,危險本身不是人工智能,而是我們如何塑造和發展它,以及我們用它做什麼。
當然有人認為,現在就採取措施來引導增長人工智能是未來的關鍵,屆時更複雜的化身——達到 AGI 或人工智能——正在發揮作用。 (儘管 AGI 的定義本身存在爭議,正如我們在其他地方探討過的那樣)。
對我們來說,雖然它本身可能不是生存威脅,但現在正在引入的 AI 類型-大型語言模型(LLM)——當然存在我們需要非常小心的危險和陷阱。主要是對工作的威脅,這絕對是真實存在的——在企業界,利潤和股東通常是首要考慮因素,而不是工人——以及對創意領域的影響(藝術和音樂,是的,還有書面內容)。