越來越多的專家警告 AI 給社會帶來的風險。
AI(人工智能)無疑是最近的新聞。雖然 AI 的能力和絕對范圍顯然令人驚嘆,但在這條道路上也有不少顛簸。關於人工智能聊天機器人的怪異行為特徵,甚至侮辱和威脅的報導也已經浮出水面。現在看來,專家們的共識是,不受約束、不受監管的人工智能對人類構成嚴重威脅。
“人工智能教父”後悔一生的工作
博士。 Geoffrey Hinton 是一位著名的計算機科學家,他因奠定了 AI 基礎而廣受讚譽,這些基礎最終導致了 ChatGPT 和其他高級系統等流行聊天機器人的誕生,他最近辭去了在谷歌的職務,表示他現在可以公開談論不受限制的 AI 開發的風險。
在最近的一次採訪中,Hinton 博士說他擔心 AI 在未來會變得更加危險,因為“壞人”可能會利用先進的系統“做壞事”,這將難以預防。 Hinton 博士接著說……“我用正常的藉口安慰自己:如果我沒有做,其他人就會做”~ <source>>
Elon Musk 呼籲制定 AI 安全協議
Elon Musk 敦促在 ChatGPT 興起後暫停六個月的高級人工智能模型培訓,認為這些系統可能“對社會和人類構成深遠風險”。馬斯克與一千多名專家一起簽署了公開信呼籲暫停 AI 開發:
“具有人類競爭智能的 AI 系統可能對社會和人類構成深遠的風險,廣泛的研究表明並得到頂級 AI 實驗室的認可。正如廣泛認可的 Asilomar AI 原則所述,高級 AI 可能代表地球生命史上的深刻變化,應該以相應的關懷和資源進行規劃和管理”~ <source>
Steve Wozniac 表達了他的擔憂
Apple 著名的聯合創始人史蒂夫沃茲尼亞克也已簽約這封公開信呼籲對人工智能發展進行更多監督。在接受 BBC 採訪時,“沃茲”表達了他的擔憂,即如果這項技術落入壞人之手,可能會被劫持並用於惡意目的。他認為 A.I.人工智能現在如此聰明,以至於“壞人”更容易欺騙他人。
“人類真的必須為人工智能所產生的一切負責。我們無法阻止這項技術,但需要監管來讓大型科技公司對他們的人工智能工具能夠做什麼負責。這些公司覺得他們可以逃脫任何懲罰。” ~ <來源>>
您首先在 DCT 閱讀它!
在今年早些時候在 DCT 發表的一篇文章中,我說了以下內容:
“必須有保障措施。毫無疑問,人工智能驅動的技術將繼續存在,但微軟和谷歌等組織也應該有責任確保他們引入的技術達到標準,並且在釋放之前不容易提供虛假或誤導性信息集體”。
是的,我在拍自己的背。 🙂
—