ChatGPT 是 OpenAI 開發的人工智能語言模型,一直在科技界掀起波瀾。在全球範圍內,人們對它能夠對文本提示做出類似人類的反應的能力印象深刻。然而,該模型的快速擴張引發了人們對圖形處理單元 (GPU) 可能短缺的擔憂。這些對於訓練和運行像 ChatGPT 這樣的大型語言模型是必不可少的。
據《財富》雜誌報導,OpenAI CEO Sam Altman 在一次私人會議上透露,GPU 的嚴重短缺阻礙了 ChatGPT 的進展。報導稱,奧特曼在 5 月份會見了多家 App 開發人員和初創公司的管理人員。總部位於倫敦的 AI 初創公司 Humanloop 的首席執行官 Raza Habib 在一條推文中表示,Altman 認為 OpenAI 缺乏足夠的 GPU,這推遲了許多優化 ChatGPT 的努力。
為什麼 ChatGPT 存在速度和可靠性問題
根據 Habib 的會議紀要,用戶對 ChatGPT 最大的抱怨是 API 接口的速度和可靠性。奧特曼明白了這一點,解釋說主要是GPU嚴重不夠用。會議紀要公開後不久,OpenAI 聯繫了 Habib 表示該活動不公開發布。
雖然哈比卜後來刪除了這條推文,但它發布的時間足夠長,足以讓人們瞥見重要細節。據報導,Altman 抱怨 GPU 短缺導致計算能力低下,OpenAI 無法擴展 ChatGPT 的聊天列表。這會影響 ChatGPT 在回答用戶問題時可以處理的信息量。它還限制了 ChatGPT 的“內存”,它可能難以處理過去的問題記錄。此外,ChatGPT 由於計算能力低,無法完成更繁瑣的任務。例如,由於 GPU 不足,AI 工具可能難以編寫複雜的程序代碼。
據IT之家報導,OpenAI是眾多受GPU短缺困擾的品牌之一。谷歌、亞馬遜、微軟等雲計算服務商都面臨GPU嚴重短缺的問題。這也導致主要供應商英偉達的股價飆升,成為第一家市值超過萬億的半導體公司。公司股價今年已飆升近兩倍。
Gizchina 本週新聞
GPU 短缺的歷史
GPU 短缺對於科技行業來說並不是一個新問題。 2017 年,由於以太坊價格上漲導致顯卡需求增加,市場面臨類似的短缺。但是,當前的短缺情況有所不同,各種因素已經擴大並使情況變得更糟。罪魁禍首是 GPU 供應鏈的問題,該地區需求的增加進一步加劇了這一問題。大流行還擾亂了供應鏈並發展了整個半導體行業。這使得公司更難獲得生產 GPU 所需的組件。
GPU 短缺對 ChatGPT 的影響
ChatGPT 的爆炸式增長引發了一些擔憂,即 GPU 再次短缺在地平線上。一位分析師聲稱,大約 10,000 個 Nvidia GPU 用於訓練 ChatGPT。此外,有報導稱,隨著服務的不斷擴展,對 GPU 的需求也在增加。
GPU 的短缺使得 OpenAI 更難讓用戶通過支持其軟件的大型語言模型(例如 ChatGPT)推送更多數據。這減緩了公司推出更多功能和服務的計劃。它還使 OpenAI 的現有服務變得更慢且更不可靠。對於許多用戶來說,這是一個大問題,這讓他們不願意在 OpenAI 的技術之上構建企業應用程序。
但是,需要注意的是,GPU 短缺的確切情況並不十分清楚。根據 2023 年 3 月的一篇 Fierce Electronics 文章,由於 AI 需求,GPU 供應出現“巨大”短缺。另一方面,早在 8 月,一份 Ars Technica 報告稱 GPU 短缺正式結束,我們現在處於 GPU 過剩狀態。 The Verge 還在 2022 年 7 月報導稱 GPU 短缺已經結束。因此,GPU 短缺的確切情況仍然有些不明朗。這可能取決於各種因素,例如位置、需求和供應鏈中斷。
GPU 短缺的潛在解決方案
GPU 短缺的一個潛在解決方案是半導體公司增加他們的生產能力。然而,這說起來容易做起來難,因為大流行病擾亂了供應鏈,使公司更難獲得生產 GPU 所需的組件。
另一個潛在的解決方案是讓公司找到替代方法來培訓並運行像 ChatGPT 這樣的大型語言模型。例如,OpenAI 從免費版的 ChatGPT 中保留了其強大的新語言模型 GPT-4,後者由於運行 GPT-4 的成本很高,因此仍在運行較弱的 GPT-3.5 模型。
OpenAI 首席執行官 Sam Altman 間接承認了這個問題,並表示該公司正在努力提高其 AI 模型的效率並降低資源密集度。
結語
GPU 短缺是 ChatGPT 和其他大型語言模型的巨大障礙。大流行和對 GPU 的需求增加使得品牌更難獲得生產 GPU 的必要部件,這減緩了 ChatGPT 新功能和服務的推出。
但是,這個問題有潛在的解決方案,例如提高生產能力和尋找替代方法來訓練和運行大型語言模型。隨著科技行業的不斷發展,看看像 OpenAI 這樣的公司如何應對 GPU 短缺帶來的挑戰並繼續在 AI 領域進行創新將會很有趣。
來源/VIA: