再不跟 Meta 聯合,微軟就會被 OpenAI 掏空了

最新AI资讯11个月前发布 Aibot114
346 0
广告也精彩
再不跟 Meta 聯合,微軟就會被 OpenAI 掏空了

祖克柏最近心情很不錯。與馬斯克隔空互噴垃圾話後,「元宇宙版 Twitter」Threads 不到五天就跨過 1 億用戶門檻,成為全球用戶總數破億速度最快的社群平台。Threads 可說是祖克柏狠狠揍了馬斯克一拳。

但商場擂台沒有裁判叫停,祖克柏說Threads用戶規模目標是10億,達成目標後,Meta才會認真考慮Threads賺錢與否。10億是Twitter用戶數兩倍。

祖克柏是認真的。無論反感馬斯克版Twitter的憤怒用戶,還是Meta帝國累積多年的龐大商業網,都極短時間湧入Threads。而無數游牧用戶裡更藏著矽谷最有權勢的光頭──微軟CEO薩蒂亞·納德拉(Satya Nadella)。

納德拉之前是尊貴的Twitter藍勾勾,有307萬追隨者,每天像AI毫無感情轉推微軟新聞公關稿。不過這次他有註冊Threads帳號,熱情洋溢宣布微軟將與Meta「大模型聯姻」:

微軟雲Azure將幫助Meta訓練和推廣Llama模型,Llama也將上線Azure和搭配Windows系統。

如雙方官方公告,Azure從設備、硬體和軟體(facility, hardware and software)層面設計,支援世界領先AI訓練。合作後Llama開發者可用Azure AI工具訓練、微調、推理和安全功能開發。巨頭的雲端合作屢見不鮮,但全世界都知道,Azure可是OpenAI御用雲端平台。

2019年微軟掏出10億美元投資OpenAI後,Azure就一直是OpenAI獨家雲端服務商。Azure為了提供算力和服務,重新設計部分架構,甚至某些觀察者說微軟拍板投資OpenAI的核心原因,就是Azure發展。

畢竟Transformer還沒有完全驗證,但微軟已押注AI多年並將雲端願景視作「為AI服務的超級計算設施」。無論算力支援或OpenAI測試Chatbot,Azure都功不可沒。山姆·阿特曼(Samuel Altman)甚至還推文對Azure團隊支持表示感謝,高度評價微軟是「世界最佳AI基礎設施」。

microsoft, and particularly azure, don’t get nearly enough credit for the stuff openai launches. they do an amazing amount of work to make it happen; we are deeply grateful for the partnership. ? they have built by far the best AI infra out there.

— Sam Altman (@sama) December 5, 2022

如今阿特曼前腳剛燒兩炷香,納德拉轉手就把「世界最佳AI基礎設施」租給祖克柏。不知道兩人是否商量好,又或許對納德拉來說,大概都是計畫的一部分。總之祖克柏表現得很高興。

祖克柏Instagram帳號貼出與納德拉的親密合影以「感謝納德拉」。祖克柏表示:「(Meta)將Llama2開源微軟,(這次開源)將成為下一代大模型建設的基礎。」

再不跟 Meta 聯合,微軟就會被 OpenAI 掏空了

(Source:祖克柏)

微軟與Meta的確相互需要。Meta走向大模型「深水區」,70B參數的Llama2已達GPT3.0水準,幾乎是口碑最好的大模型底座。對閉源大模型陣營來說,Llama2成功的壓力毫不亞於Threads給Twitter的震撼教育。

閉源公司花幾千萬做不出來的東西,開源社群可直接用,等於將全球開源大模型社群起跑線提高到3.0水準。最近登頂HuggingFace開源大模型榜單的Stability的Freewilly模型,最接近3.5,正是基於Llama2.0調教最佳化後的產品。

對Meta來說,參數提升使計算量攀升、模型逐步成熟也看到更多商用潛力。但如果要戰勝困難、發揮潛力,祖克柏需要更有力的夥伴,Azure已經有的、Meta沒有的東西,對Llama顯得更重要,如Azure的算力經驗、Azure的AI工具箱、Azure本身。

Meta是為數不多沒有自家雲端服務的網路科技巨頭。過去Meta與亞馬遜互為大客戶,Meta某些AI研發算力都採購AWS。微軟這次挖牆角,除了開放Windows場景,還開放Azure企業管道能力,將Llama2加入自己產品線。

Azure雖然在整體市場占比依然落後AWS,但是在SaaS銷售領域卻顯著領先於同類競爭對手。而隨著雲與SaaS的融合,微軟在通路上有顯著的差異化優勢。藉由Azure,Meta和它的生態追隨者們可以直接透過雲端來銷售和使用Llama2的產品。

對於微軟來說,大模型的挑戰則更加多元。

微軟過去在大模型應用層面幾乎是all in OpenAI的產品。無論是最早接入的Bing,還是基於Windows生態的Copilot\面向開發者的工具生態AI Studio,甚至是新的AI雲端服務品牌OpenAI Azure,背後都是OpenAI的影子。

OpenAI是全球最好的大模型公司,Windows依然是全球最重要的生產力軟體生態。但在大模型全球軍備競賽中,這兩者的結合並不意味著絕對的勝券在握。

與Meta和微軟結合幾乎同時宣布的,則是蘋果的大模型計畫。

據海外媒體報導,蘋果已經完成了名為「Ajax」的大預言模型基礎框架,將開發類似ChatGPT的對話式AI。而消費級產品的推出時間則計劃在明年發布。

蘋果的入場被認為是矽谷大模型競賽中的重要變數。

比起公有雲的網路科技風口,AI是被蘋果管理層高度認可的科技方向,近期管理層口風也有朝著AI加碼的趨勢。

除了長期關注AI科技外,蘋果是全球最有錢、最有場景的公司。蘋果每年淨利潤接近1,000億美元、經營淨現金流超過1,200億美元,相當於微軟與Meta的總和。蘋果生態已經超過微軟成為全球最大的封閉操作系統,活躍設備數量超過20億,而微軟只有15億。

而相比於帳面實力外,蘋果更具想像力的是它的半導體能力。它或許是全球參與大模型競賽的科技企業中,為數不多將來可以不用外採GPU與CPU的廠商。不僅如此,蘋果的晶片效率似乎更有想像力。

在2023年WWDC上,蘋果推出的M2 Ultra晶片。相比於普通廠商CPU、GPU分離的部署方式,M2 Ultra統一記憶體架構以及隨之帶來的超高記憶體頻寬,甚至可以讓開發者在一張卡上就能跑大模型。

儘管類似的消費級晶片還無法和輝達(NVIDIA)的專業晶片相媲美,但類似小秀肌肉,也讓外界對蘋果未來的GPU算力延展能力產生了興趣。

以OpenAI為例,外界預估其大概同時動用了2萬張顯卡進行計算。但王小川(搜狗創始人、百川智能CEO)近期對媒體表示,OpenAI正在測試1,000萬張顯卡同時計算的模型,相當於輝達目前10年的產能,「完全是登月計畫等級」。

除了蘋果以外,微軟、Google、Meta、亞馬遜等巨頭都有自研AI晶片的計畫,但已經有頂尖半導體開發能力的蘋果依然是最有資格「大力出奇蹟」的人。

再不跟 Meta 聯合,微軟就會被 OpenAI 掏空了

▲ Apple將兩枚M2 Max 的晶片連接在一起打造出M2 Ultra。(Source:蘋果)

Google兇猛、蘋果虎視眈眈,微軟和Meta選擇結盟。

對於納德拉來說,與Meta合作可以讓微軟在大模型的生態戰爭中更加穩固。

首先,微軟依然需要開源,開源在未來的大模型競爭中將持續扮演重要角色。

開源天然具有人才參與眾多、迭代速度快、垂直領域覆蓋效率更高的生態能力。雖然OpenAI拿下頭籌,但開源社群的進步速度依然很可觀。比如Llama只用了大半年的時間,使用參數70B,已經趕上了175B、耗時2年的GPT3。

尤其是如果未來開源路線成為解決方案主流,Llama與Azure深度結合,或許真可幫助微軟雲端業務完成對AWS的彎道超車(2022年底Azure市占率23%、AWS為32%)。畢竟相比於Windows和Office,Azure才是微軟最賺錢、最有潛力的業務。

其次,開源大模型的不斷發展,必然讓願意砸錢做封閉系統的廠商也自然越來越少。比如Bard在Llama2之後就受到不小壓力。除了許多好事者在晚上討論Bard未來長期發展的壓力外,有媒體報導稱Google內部人士也曾撰文稱Bard在對抗開源社群時有點吃力,後者進步神速且成本更少、應用場景更豐富。

在大模型超級投入的產業結構沒有變化的情況下,封閉式大模型依然會有其存在的合理性,但可能會僅限於極少數領先者,而其中就可能會有OpenAI。

如果OpenAI有護城河,那它的名字可能叫Llama2。

當然,OpenAI其實也並不是微軟的「親兒子」。

在100億美元投資後,微軟雖然擁有75%的分紅權,但實際上也只占OpenAI 49%的股權。換言之,微軟雖然手握大量的OpenAI資源,但並不完全擁有OpenAI絕對的控制權。

但與Llama合作像是一個訊號,手握OpenAI的微軟其實正在成為遊戲規則的制定者:

它既有最具潛力的AI基礎設施Azure,也有最前端的商業化變現接口Windows copilot。而當最核心的基礎設施和通路在微軟手上時,OpenAI也只是微軟的「超級程式設計師」。

當Meta等平台成熟後,微軟可以再引入更多的「程式設計師」,甚至開放更多的系統級場景給開源生態,進而讓Windows系統的生產力進一步提升。

實際上,OpenAI原本就只是納德拉重註AI和語言大模型的一個選項。

在ChatGPT之前,微軟甚至和輝達合作開發過5,300億參數的大語言模型「Megatron-Turing」,是當年基於transformer的最大模型,參數比GPT3多了好幾倍,講究的是絕對的大力出奇蹟。可最後Megatron還是輸給了奧特曼,於是才選擇了買下奧特曼。

但微軟內部其實一直沒有放棄大模型的相關技術路線開發。

例如6月時,微軟就發布了13億參數的「小型」大語言模型phi-1。有OpenAI做為核心資產,微軟不走「大力奇蹟」模式,而是改用號稱「教科書等級」的高品質資料集訓練模型,讓實際效果勝於千億參數的GPT 3.5。7月時,微軟還提出了新的大模型架構RetNet,稱其可以在更大數據維度基礎上,比transformer更優。

再不跟 Meta 聯合,微軟就會被 OpenAI 掏空了

大模型的戰事還遠沒到中場,Megatron與奧特曼們的遊戲或許才剛剛開始。

© 版权声明

相关文章

暂无评论

暂无评论...