![申請 ChatGPT 和新 Bing 帳號為什麼要等這麼久?](http://aibot114.com/wp-content/uploads/2023/05/304.jpg)
AIGC 最近讓世界瘋狂,每天醒來都可能是「新世界」,但從另一角度看,無論 AIGC 如何智慧顛覆,我們仍身處「舊世界」,或說「候補」世界。
不只新 Bing,Github Copilot X、ChatGPT 外掛程式、Midjourney V5 及 Adobe Firefly,甚至百度文心一言,體驗前都得加入等待清單排隊等試用。這過程就像配給制,AIGC 服務越多,GPT-4、Midjourney V5 升級的等待時間又要延長。如今仍有相當多人還在新 Bing 等待清單上,更別說其他更新生成式 AI。
或許是對等待清單這潛規則的無聲反抗,有人做了「一鍵排隊」網站。不過諷刺的是,「一鍵加入」功能還沒做好,需先加入各家等待清單;且網站功能變數名稱後綴是 .wtf,怨氣拉到滿。
候補名單背後是為了服務更穩定
當把這個問題丟給 Bing,Bing 從 OpenAI 官網三個頁面找到四個原因。
限制用戶量,確保服務品質和穩定性。收集用戶回饋,改善服務和體驗。增加使用者期待和參與感,提高知名度與口碑。篩選符合目標使用者,提高服務轉化率和留存率。
這更像 OpenAI、微軟、Google 等大公司對看似無限等待的官方說法。相對來說,最先走向大眾的 ChatGPT,模型升級後及大幅降價,服務也有不少波動,如問答紀錄消失,當機,問答清單混亂等穩定度問題。
基於 OpenAI 的新 Bing 也有過激烈言辭,到現在微軟還有限制新 Bing 對話次數與長度。可說限制使用 ChatGPT 和新 Bing 人數,能提供更穩定和快速服務。但這些功能和服務已消耗相當資源,幾乎占用微軟 Azure 一半算力。
AIGC 界尚未出現超級 App,還在快速反覆運算,甚至可說是 Beta 測試版,還用傳統對話框與 AI 互動,其實與 2023 年人手一(手)機不太搭配。AIGC 現在只能算功能,即將推出的 Copilot、Firefly 才更像產品,但仍躺在每家等待清單裡。某方面來說,微軟、Google、Adobe 還在「打磨」產品,想對所有人敞開大門,或說 AI 成為每個人的 Copilot,還需要突破「瓶頸」。
![申請 ChatGPT 和新 Bing 帳號為什麼要等這麼久?](http://aibot114.com/wp-content/uploads/2023/05/305.gif)
▲ Office 365 的 Copilot 功能。
蓬勃發展的 AIGC,或許開始碰到瓶頸了
「瓶頸」並非外在,生成式 AI 的倫理、法律或回應準確度,AI 背後提供算力的硬體,以及各種訓練雲端運算。微軟持續投資 OpenAI,先後投資幾十億美元,也逐步出現基於 GPT-4 的新 Bing,和還在等待清單上的新 Office 365。為了保證新 Bing 及有 Copilot 功能的新 Office 365 穩定快速回應,微軟也預留 Azure 一半算力和容量。
這導致微軟 Azure 算力資源緊張。The Information 採訪員工,對有限硬體資源,微軟正在實施硬體等待清單制度。微軟其他開發機器學習模型的團隊和部門,想調用 Azure AI,需逐級申請報備,由一位副總裁定奪。
就如我們排隊等著體驗新生成式 AI,除了新 Bing、新 Office 365 和 OpenAI 服務,微軟其他部門也在排隊等著用 Azure 算力。只是隨著微軟 All in OpenAI 策略,Azure 算力和容量漸漸緊張起來。
除了公司調用,Azure 也有各種產品和服務,如 AI、計算、容器、混合雲、物聯網等。Azure 目前在全球 60 多地區提供服務,對外伺服器產品和雲端收入佔微軟總營收 36%。但與團隊類似,Azure 客戶也受算力有限影響,尤其想調用 Azure OpenAI 一樣得加入等待清單。
大概從 2022 年底,微軟就打算增加更多硬體(GPU 或 TPU)以擴充算力。微軟與輝達達成協定,增加數萬個 H100 GPU,為 OpenAI 提供更高 AI 訓練和推理效率。不過微軟與輝達並未透露 Azure H100 部署情況,微軟也只有少部分團隊擁有 H100 調用許可權(大概是新 Bing 和 Office 365 團隊),其他部門也要排隊。
一塊 H100 售價約 24 萬元,微軟 Azure 擴充就需投資數億資金。不只微軟,Google、甲骨文等雲端服務商也大力投資 GPU 等硬體準備擴充,AIGC 徹底爆發前做好算力準備。
![申請 ChatGPT 和新 Bing 帳號為什麼要等這麼久?](http://aibot114.com/wp-content/uploads/2023/05/306.jpg)
▲ 輝達 CEO 黃仁勳與 OpenAI 聯合創辦人兼首席科學家 Ilya Sutskever 對談。
但從 GTC 2022 發表到現在,輝達沒有公布 H100 產量和銷售狀況,微軟 Azure 擴充計畫是否有效也不得而知。GTC 2023 輝達並沒有說更多 H100、A100 硬體進展,只強調輝達雲端計算硬體的優勢。首席技術長也強調「加密貨幣對社會沒有貢獻,AI 才有」,側面強調 AIGC 領域將是輝達之後 30 多年專注的領域。
隨著 AIGC 持續運算,2022 年 10 月輝達股價也跟著增加,一掃加密貨幣衰退導致業務下滑頹勢。目前輝達市值又達到新高點,幾乎等於英特爾、AMD、ARM 三家市值總和。
但高市值似乎沒有改善硬體供應狀況,反而隨著 Google、微軟等大企業不計成本資源投資雲端硬體,輝達很可能再次出現顯卡荒。不只硬體,高性能 GPU 組成的計算矩陣也需高功率,單張 SXM 介面 H100 功率就達 700W。AI 模型訓練和大數據計算中心耗電量更十分驚人。
2021 年加州大學 David Patterson、Joseph Gonzalez 研究顯示,訓練 GPT-3 大概需耗費 1.287 千兆瓦時電力,相當於 120 個美國家庭一年電量。論文還發現訓練 GPT-3 會產生 502 噸碳排放,等於 110 輛汽車一年排放量。他們雖強調這只是一個模型的訓練成本,但進入市場後會消耗更多資源,可能比訓練成本更高。
OpenAI GPT-3 有 1,750 億個參數或變數,GPT-4 參數更預估 1,750 億到 2,800 億。對於能耗,雲端計算需求只增不減。OpenAI CEO Sam Altman 接受 The Verge 採訪時表示,OpenAI 正在尋找更有效方法提升模型性能和安全性。換句話說,OpenAI 也試圖用高效演算法尋找節省訓練模型的硬體資源與電力。
等待清單機制表面看可確保 AIGC 使用體驗,以及服務回應速度。但深層看,更是資源角力,是 GPU、TPU 為核心的雲端算力和容量互相角力,也是高投入高能耗的競爭。目前 AIGC 仍處於「盲盒」階段,資源需求和使用也不明朗。
不過站在各種 AI 服務的等待清單隊伍裡,確實很像科幻電影人們排隊進入 AI 控制的工廠,提供運作資源。等待清單就是虛擬世界的候補,也可能是將來現實世界的 AI 服務佇列。