OpenAI VS. Anthropic誰優? 兩大獨角獸爭鬥資本市場
OpenAI和Anthropic一年內將IPO,擴大在市場影響力。雖然現在Anthropic的市佔率和看好度都優於OpenAI,OpenAI有科技大咖背後支撐,也不是省油的燈。
文/魏聖峰
AI正在改變我們的生活模式,並從先前的大語言模型能力的競爭,進入商業化效率的競賽,當今金融市場更在意現金流量與AI投入後的成本回升與投資回報率等的焦點。AI產業鏈中,當今兩檔還沒掛牌上市的OpenAI和Anthropic獨角獸最受市場矚目。從去年下半年以來,市場對兩隻獨角獸的偏好度逐漸轉向Anthropic,並認爲從客戶、財務體質和未來的獲利結構來看,有逐漸佔上風的現象。
Anthropic市佔率領先
OpenAI和Anthropic都以大語言模型(LLM)對外銷售算力爲主。實際上,兩者略有不同。OpenAI定位上以AI平臺爲主,主要客戶結構是消費者,最近OpenAI正努力開發企業客戶,以穩定營收來源。OpenAI成名較早,並曾在企業大語言模型市佔率領先對手。但這樣的優在去年下半年遭到Anthropic超越,也讓近半年Anthropic的聲量逐漸超越OpenAI。OpenAI的ChatGPT在產品推出後一度深獲消費者喜愛。不過,自從谷歌推出的Gemini 3後,市場認爲谷歌的這個大語言模型的技術優於ChatGPT,造成OpenAI的市佔率明顯滑落,除了擴大落後給Anthropic外,也逐漸遭到谷歌的大語言模型追上來。
OpenAI的AI平臺,以消費者的付費訂閱爲主要的收入來源,但OpenAI客戶羣中,免費客戶佔比仍高,加上該公司的推論成本耗費不貲,即使OpenAI年收入二五○億美元,仍屬於虧損狀態。日前華爾街日報報導,OpenAI近期每週用戶數與收入增長均低於內部設定的目標,引發市場對其營收成長速度可能無法支撐龐大數據中心與算力支出。從OpenAI內部文件顯示,今年虧損可能達一四○億美元,未來五年要投入約六千億美元在AI伺服器和雲端基礎設施。預估要到二○三○年時的年營收目標達到一千億美元,公司纔會開始轉虧爲盈,之後每年的盈利將會出現強勁的成長。但市場擔心的是,OpenAI雖然找了Nvidia、軟體銀行的投資,加上大股東微軟的財務支援,仍被市場高度質疑該公司的現金流量能否撐到二○三○年。從二○一九年起至今,微軟已投資OpenAI一三○億美元,並持有二六.七九%的股權。去年下半年因爲OpenAI虧損緣故,微軟認列四一億美元的稅前損失。OpenAI爲了擴大營運來源,今年AI市場很紅的養龍蝦軟體公司的OpenClaw創辦人已加入OpenAI團隊,兩家公司人才合併。OpenClaw流量大,有利擴大OpenAI影響力。
OpenAI有龐大的免費客戶,市場流量的確很大,也超過Anthropic,卻也因爲這些免費客戶無法轉變爲現金流量,以及OpenAI的基礎設施現階段很燒錢,都是OpenAI當前最需要解決的問題。從企業用大語言模型市佔率觀察,Anthropic在去年下半年超越OpenAI後,最新市佔率已超越三成,並持續擴大與OpenAI的差距,這是Anthropic在技術定位、產品策略與企業信任度上精準切中市場需求形成的結果。Anthropic產品以Claude(程式碼)爲主,在技術工程師眼中普遍認爲Claude(特別是3.5/4系列) 產出的代碼Bug更少、邏輯更清晰,其推出的Claude Code產品進一步鞏固開發者的黏着度。
其次,Anthropic從創立以來就深耕企業市場(B2B),與OpenAI品牌基因偏向大衆市場(B2C)有所不同。企業客戶在實際落地程式應用時,更在意模型的迴應是否穩定、控管是否細膩,也會比一般消費大衆更願意掏錢出來訂閱程式碼。只要實用且能提升程式運作效率,企業客戶層相對穩定。
對雲端的綁定也是擴大客戶層的發展空間的原因。Anthropic同時與AWS的Bedrock和谷歌雲端(Google Cloud)深度合作,使其能觸及更廣泛的雲端企業用戶。OpenAI僅深度綁定微軟Azure,在程度上限制其他雲端平臺使用者的選擇空間。現代企業傾向採用多供應商策略,以降低對單一服務商的依賴,這讓後發先至的Anthropic獲得大量升級和切換的機會。Claude模型在大規模數據檢索與長文本的解析度上有相對穩定表現,使其在法律、金融等專業服務領域的採用率激增。尤其是Claude推出的Artifacts動態工作空間,顯著提升了非技術人員與AI協作的體驗,增加客戶的黏着度。
現金流與商業化效率
今年OpenAI與Anthropic的競爭本質出現結構性轉折,AI產業已從模型能力競賽,演變成現金流與商業化效率的競賽。這樣的框架下,OpenAI在流量的確遠超過Anthropic,也把ChatGPT打造成全球最大的AI應用,包括程式應用介面和開發者在內的完整生態系,並與微軟深度綁定。OpenAI的推論成本一直都很高,這與GPU的運效率、記憶體頻寬瓶頸和模型推論機制有關。目前GPU運算核心速度遠快於記憶體傳遞速度,造成GPU大部分時間在等待資料,形成算力浪費,大幅提高OpenAI的推論成本。(全文未完)
全文及圖表請見《先探投資週刊2403期精彩當期內文轉載》