
字節(jié)跳動扔出一顆石子,在大模型行業(yè)炸出了一片水花。
15日,字節(jié)跳動推出豆包大模型,僅需0.8厘就能處理1500多個漢字。阿里、騰訊、百度緊跟而上掀起了一場大模型價格戰(zhàn)。一夜之間,大模型從以美元計價變成了以厘計價。
歷史總是出奇相似。經(jīng)歷“百團大戰(zhàn)”“打車大戰(zhàn)”后,大模型的價格戰(zhàn)能否走出“跑馬圈地”的怪圈?
到底有多便宜
這一場價格戰(zhàn)從5月初開始。
DeepSeek在6日宣布,旗下大模型DeepSeek-V2降價至每百萬Tokens(處理文本最小單位)輸入價格為1元、輸出價格為2元,開發(fā)者還將獲得500萬Tokens的免費額度。
這個價格有多低?用OpenAI的主力大模型GPT-4 Turbo作比對就很明顯——每百萬Tokens的輸入和輸出價格分別為72元和217元。
但是兩者近百倍的價差,并未引發(fā)市場太大的反響,直至字節(jié)跳動的加入。
5月15日,字節(jié)跳動發(fā)布豆包大模型,宣布主力大模型pro-32k定價為0.8元/百萬Tokens,號稱比行業(yè)便宜99.3%,比DeepSeek-V2還低不少。

火山引擎總裁譚待公布豆包大模型定價。
21日,阿里云宣布通義千問主力模型Qwen-Long,API(編程接口)輸入價格從20元/百萬Tokens降至0.5元/百萬tokens,直降97%。這意味著,1元錢可以買200萬Tokens,相當(dāng)于5本《新華字典》的文字量。
緊接著,百度隨即宣布文心大模型的兩款主力模型 ENIRE Speed、ENIRE Lite全面免費。這兩款大模型均支持客戶向大模型進行8K—128K內(nèi)容量的提問和回答。
騰訊云旗下混元大模型跟著降價,其中混元—lite模型免費,混元—standard—256k輸入價格下調(diào)87.5%至15元/百萬Tokens。
需要提醒的是,各個平臺大模型的參數(shù)不一樣,最終價格也不盡相同,但價格降幅均在50%以上,是實打?qū)嵉?ldquo;打骨折”。相比之下,國內(nèi)外廠商Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每百萬Tokens輸入價格分別為25元、22元及120元。
國產(chǎn)大模型的價格戰(zhàn)到底有多卷?火山引擎總裁譚待算了一筆賬:以主力模型32k(約3.2萬個參數(shù))為例,看看1元錢能買到多少Token?此前,1元錢可以從GPT買到2400個Tokens,國內(nèi)大模型能得到8000多個Tokens,如果用開源Llama搭建自己的大模型,1元錢可獲得3萬個Tokens。
在字節(jié)跳動的“鯰魚效應(yīng)”下,如今只要花一元錢,就能獲得百萬級別Tokens,相當(dāng)于“讀”完5本《新華字典》或3本《三國演義》。
為何要打價格戰(zhàn)
AI大模型是出了名的燒錢行業(yè),在全球競爭的當(dāng)下,算力、研發(fā)、運維等成本幾乎都用美元計算,錢還沒賺到,為何先打起了價格戰(zhàn)?
目前看來,互聯(lián)網(wǎng)“賠本賺吆喝”的邏輯依然貫穿始終。
一位大模型研發(fā)技術(shù)人員告訴記者,動輒百萬級別Tokens的計費模式雖然沒錯,但更多的是營銷噱頭而非實際能力,以大模型應(yīng)用落地來看,《新華字典》級別的文本量不如對多模態(tài)的深度理解。“按照幾毛幾分的收費,大模型可能是虧錢的,但好在能夠吸引更多開發(fā)者和客戶,用短線虧損換取用戶基數(shù),長期來看也算是一種商業(yè)策略。”他說道。

阿里云宣布通義千問大模型降價。
降價能否帶來用戶增長?阿里云在上半年的實踐證明是有效的。
3月1日開始,阿里云開啟新一輪的降價政策,核心產(chǎn)品平均降幅20%,最高幅度達55%。通過此次大規(guī)模降價,阿里云表示希望更多企業(yè)和開發(fā)者用上公共云服務(wù),加速云計算在中國各行各業(yè)的普及和發(fā)展。
最近阿里財報顯示,阿里云季度營收同比增長3%至255.95億元,核心公共云產(chǎn)品收入實現(xiàn)兩位數(shù)增長,AI相關(guān)收入實現(xiàn)三位數(shù)增長。
不過,公共云的成功能否復(fù)制在大模型上,阿里、字節(jié)、騰訊等巨頭“大廠”決定放手一搏,但大模型的“中小廠”卻有不同的看法。
比如李開復(fù)創(chuàng)立的零一萬物最新發(fā)布的Yi—Large模型每百萬Tokens定價20元,與國外主流大模型類似。雖然他認可大模型的推理成本在未來將不斷降低,但并不打算現(xiàn)在跟風(fēng)價格戰(zhàn),“ofo式瘋狂降價”是一種雙輸?shù)牟呗浴T?ldquo;做一單賠一單”的市場環(huán)境下,李開復(fù)坦言將服務(wù)國外市場的B端客戶。
百川智能CEO王小川也有類似觀點,他也建議創(chuàng)業(yè)公司不要摻和價格戰(zhàn),大模型創(chuàng)業(yè)并不適合網(wǎng)約車和百團大戰(zhàn)時期“燒錢補貼”的策略,低價不應(yīng)該成為大模型的唯一競爭力。
今后如何收費
從卷長文本到卷多模態(tài)再到卷價格,短短一年內(nèi),大模型在國內(nèi)火速“進化”,從基礎(chǔ)技術(shù)到落地應(yīng)用,國內(nèi)大模型迎來了商業(yè)化的序幕。
《中國大模型中標項目監(jiān)測報告》顯示,今年前四個月,大模型相關(guān)中標金額已超過去年全年7成以上,涉及政務(wù)、金融、能源等多行業(yè),由此可見,傳統(tǒng)行業(yè)正加速擁抱大模型??萍季揞^的數(shù)據(jù)也能印證這一點:百度文心大模型每天處理文本量達到2500億Tokens,而字節(jié)跳動每天處理1200億Tokens。
目前,大模型在B端的商業(yè)化落地主要有API調(diào)用和私有化部署兩種渠道,千億級的數(shù)據(jù)處理能力,顯然不是每個公司都能承受的,公有云+API成了越來越多企業(yè)的選擇。
“去年很多客戶說買一兩百臺GPU服務(wù)器,自行搭建計算網(wǎng)絡(luò)集群研發(fā)大模型,而今年不少公司已經(jīng)放棄這一計劃。”阿里云公共云事業(yè)部總裁劉偉光解釋說,構(gòu)建一個大規(guī)模集群需要GPU顯卡采購、軟件部署、網(wǎng)絡(luò)費用、電費、人力成本以及不斷投入的試錯成本。但是在公共云上的調(diào)用價格也遠遠低于私有化部署。
他以使用Qwen-72B開源模型、每月1億Tokens用量為例,在公有云上直接調(diào)用API每月僅需600元,而私有化部署的成本平均每月超1萬元,“大模型的規(guī)模越大,云上的優(yōu)勢就越明顯”。
C端商業(yè)化又是另一條路徑。
“B端降價,C端收費,國內(nèi)大模型以后可能要走上OpenAI的老路。”上述研發(fā)人員告訴記者,大模型在B端低價吸引開發(fā)者,當(dāng)技術(shù)生態(tài)逐步完善后,C端應(yīng)用也就到了“收割”期。以O(shè)penAI為例,面向C端用戶推出ChatGPT Plus,會員需要支付每月20美元訂閱費,面對B端開發(fā)者提供API調(diào)用服務(wù)。去年OpenAI的年度經(jīng)常性收入據(jù)報道已達到16億美元。
今年推出的GPT-4o與早期GPT3.5類似,免費的限次數(shù)使用,付費的無限制使用。百度的文心一言大模型亦是如此:文心3.5版本可免費使用,但是升級成文心4.0版本則需要開通每月至少49.9元的會員。

文心4.0版本需要開通每月至少49.9元的會員。
國內(nèi)的Kimi近期推出的打賞功能,也是C端收費的探索之一。Kimi在高峰算力不足時,可提供打賞獲得優(yōu)先權(quán),價格分別為5.2元、9.99元、28.8元、49.9元、99元和399元,打賞后分別可獲得4天、8天、23天、40天、93天和365天的高峰期優(yōu)先使用權(quán)。