自從 ChatGPT 推出以及隨後的 AI 革命開始以來,行業專家和政府一直在呼籲採取更強有力的安全措施,以防止 AI 系統偏離正軌。現在,在最近的新聞中,一群有影響力的人工智能專家和行業領袖發出了警告,強調迫切需要在全球範圍內解決 AI 帶來的生存風險。

“減輕 AI 滅絕的風險應該與流行病和其他社會規模的風險一起成為全球優先事項核戰爭,”聲明中寫道。

該聲明由總部位於舊金山的非營利組織人工智能安全中心發布,強調了企業競相構建最先進的人工智能係統的持續努力,而無需實施適當的安全措施,這可能對人類構成威脅。因此,該聲明得到了知名人士的廣泛支持和簽名,其中包括 Google DeepMind 首席執行官 Demis Hassabis、OpenAI 首席執行官 Sam Altman,以及 Geoffrey Hinton 和 Yoshua Bengio 等人工智能研究人員,他們都獲得了著名的圖靈獎2018 年因其對該領域的開創性貢獻而獲獎。

此外,人工智能安全中心執行主任 Dan Hendrycks 在 報告該聲明旨在通過建議具體的干預措施來降低風險,從而避免潛在的分歧和稀釋。

了解威脅

雖然當前的人工智能係統可能不會對人類構成重大威脅,但人工智能安全辯論主要圍繞人工智能係統迅速超過安全操作水平並開始自主進化的假設場景展開。專家認為,一旦這些人工智能係統達到一定的複雜程度,控制它們的操作將變得幾乎不可能。因此,像谷歌和 OpenAI 這樣引領 AI 革命的公司必須承認這一威脅。

因此,就連政府也在探索控制和規範 AI 發展的方法。儘管喬·拜登總統認識到人工智能在解決疾病和氣候變化等全球挑戰方面的巨大潛力,但他也強調需要解決它對社會、經濟和國家安全構成的潛在風險。

Categories: IT Info