
圖片火山引擎
藍鯨新聞6月12日訊(記者 朱俊熹)去年5月,字節跳動首次對外發布豆包大模型時,以低于同行99.3%的價格掀起了價格戰。一年之后,在6月11日的火山引擎FORCE原動力大會上,字節再推出豆包大模型1.6,包含doubao-seed-1.6-thinking等三個模型,并帶來新的定價模式。
據火山引擎總裁譚待介紹,豆包大模型1.6采用統一定價模式。無論用戶是否開啟深度思考模式,使用的是文本功能還是視覺功能,tokens的價格完全一樣。因為對于同結構、同參數的模型而言,真正影響模型成本的是上下文長度。
同時,火山引擎還提出創新性的區間定價模式。具體而言,在絕大部分企業使用集中的0-32K范圍內,豆包1.6的輸入價格是0.8元/百萬tokens,輸出價格8元/百萬tokens。在此區間內,綜合成本比豆包1.5·深度思考模型、DeepSeek R1降低63%。
而在輸入區間32K-128K范圍內,豆包1.6輸入1.2元/百萬tokens,輸入16元/百萬tokens。在輸入區間128K-256K范圍內,輸入2.4元/百萬tokens,輸出24元/百萬tokens。
譚待在接受藍鯨科技在內的媒體群訪時解釋稱,此次成本降低,很大程度上得益于工程優化。火山發現,大部分企業的上下文窗口存在一定的分布區間,因此可以通過PD分離等技術手段,對不同長度的輸入輸出進行合理調度,從而提升計算效率,實現對各個區間成本的定向優化。
他強調,To B的商業模式不同于To C,不能“羊毛出在豬身上”,而要從一開始就構建正毛利的商業模式。“技術在不斷進步,所以能夠持續去優化成本。”譚待稱,“我們宗旨是每當做到一定程度之后,就盡最大可能性把這個技術的紅利釋放出來。”
在譚待看來,AI時代的主體是能夠自主感知、規劃和反思、完成復雜任務的Agent。相比于Chatbot(聊天助手),Agent執行一個任務的token消耗量更大。因此如何降低token價格成為關鍵,“我們希望跟去年一樣,再次促進Agentic AI的普及。”
作為對外開放字節跳動技術工具的云廠商,火山引擎的理念是做“AI云原生”。譚待在采訪時闡述道,AI云原生和云原生AI的主體存在差別。后者是為以前的主體添加一些AI能力,如PC時代的web、移動時代的APP。而AI云原生是為Agent設計新的技術棧,包括更強的模型、多模態數據、安全等等。
“過去幾年傳統云計算在產品創新上是有停滯的,但是AI云原生可以大大加速這件事情。”譚待稱,“我相信可能整個行業,未來都會圍繞AI云原生去不斷地創新,可能馬上會看到眼花繚亂的幾年,有很多新產品出來。”
譚待透露稱,大模型相關的收入增速是所有產品中最快的,同時毛利表現也是最好的。在收入增長和客戶拓展方面,火山的目標“還是很激進的”。他認為,客戶對AI的需求是旺盛且明確的,但很多困惑于怎么把好模型用起來。現階段最重要的仍是把模型做好、把成本做低、把產品做扎實。
在本次FORCE原動力大會上,火山引擎還發布了新的豆包·視頻生成模型Seedance 1.0 pro。在第三方榜單Artificial Analysis上,Seedance 1.0 pro在文生視頻、圖生視頻兩個維度均登頂全球競技場第一,超越了谷歌5月發布的Veo 3等模型。其定價為每千tokens 0.015元,相當于每生成一條5秒的1080P視頻只需3.67元。
“再好的視頻模型最終還是需要抽卡。所以抽多條的時候,成本低綜合起來才能讓可用性更強。”譚待表示。





京公網安備 11011402013531號