2024年臨近結(jié)束,大模型市場依舊熱戰(zhàn)正酣。
一方面,國內(nèi)外各大創(chuàng)業(yè)公司高額融資新聞頻出,AI數(shù)據(jù)分析公司Databricks更是以單輪超過700億元人民幣的融資目標(biāo)刷新了全球AI創(chuàng)企的融資紀(jì)錄,超越OpenAI。
另一方面,以O(shè)penAI發(fā)布季為首,全球新模型、新產(chǎn)品也在年底迎來了一波集中更新。就在不久前的12月18日,火山引擎也在2024冬季FORCE原動力大會上帶來了豆包大模型家族的一系列全新升級。

舉例而言,豆包Pro作為字節(jié)最強的大語言模型,本次迎來了大版本的更新升級,綜合任務(wù)處理能力較5月份提升32%,全面對齊GPT-4o,使用價格僅為后者的1/8。
最新推出的豆包視覺理解模型不僅能精準(zhǔn)識別視覺內(nèi)容,還具備出色的理解和推理能力,可根據(jù)圖像信息進行復(fù)雜的邏輯計算,完成分析圖表、處理代碼、解答學(xué)科問題等任務(wù),并擁有細膩的視覺描述和創(chuàng)作能力。
尤其在本次FORCE大會上,火山引擎宣布,豆包視覺理解模型千tokens輸入價格僅為3厘,一元錢就可處理284張720P的圖片,比行業(yè)價格便宜85%,引發(fā)了業(yè)內(nèi)熱議。
火山引擎總裁譚待向透露,事實上,即便在這個價格下,火山引擎的毛利其實也非常可觀。低價并非是“燒錢補貼”的市場策略,而是通過算法、工程、硬件的聯(lián)合創(chuàng)新,從底層系統(tǒng)架構(gòu)到上層應(yīng)用的共同進步才得以實現(xiàn)。火山引擎希望幫助企業(yè)和開發(fā)者更方便、更低門檻地使用大模型技術(shù),促進AI技術(shù)普惠,把蛋糕做得更大。
根據(jù)火山引擎數(shù)據(jù),近3個月來,豆包大模型在信息處理場景調(diào)用量增長了39倍、客服與銷售場景16倍、硬件助手場景13倍、AI工具場景9倍,在B端汽車、金融、教育領(lǐng)域擁有大量合作伙伴,如梅賽德斯-奔馳、廣汽集團、華泰證券、招商銀行、浙江大學(xué)等等。
自2022年11月底ChatGPT推出以來,大模型這把火已經(jīng)在全球燒了整整兩年多。兩年后的今天,大模型市場格局發(fā)生了天翻地覆的變化,尤其在to B領(lǐng)域,越來越多企業(yè)已經(jīng)摘下了大模型的“濾鏡”,轉(zhuǎn)而從真實的落地應(yīng)用場景、經(jīng)濟價值開始考量。
火山引擎究竟如何通過技術(shù)創(chuàng)新降低大模型落地成本?大模型對于云計算產(chǎn)業(yè)帶來了哪些沖擊與機遇?下一個十年,我們將迎來怎樣的AI云原生架構(gòu)?圍繞這些備受行業(yè)關(guān)注的話題,在2024冬季FORCE原動力大會期間,火山引擎總裁譚待與CEO馮大剛進行了一場深入的對話。

以下為對話實錄。
01、過去一年,什么最重要?
馮大剛:今天我們的提問,雖然核心內(nèi)容是我們出的,但是也讓豆包出了一版,我認(rèn)為挺有趣的。比如今天的第一個問題:我們都知道您在技術(shù)領(lǐng)域有著深厚的造詣和豐富的經(jīng)歷,當(dāng)初是什么契機讓您從百度這樣的巨頭轉(zhuǎn)投字節(jié)跳動,并扛起火山引擎開拓企業(yè)級市場的重任呢?
譚待:這段經(jīng)歷非常重要。我在百度一直擔(dān)任技術(shù)leader的角色,在這個過程中也逐漸承擔(dān)到了一些新角色。
(從技術(shù)轉(zhuǎn)向開拓市場)這件事并不容易,作為純技術(shù)人員,如果沒有大團隊的管理經(jīng)驗和業(yè)務(wù)背景,那么大家往往會認(rèn)為你應(yīng)該繼續(xù)從事技術(shù)工作。但換個角度來說,雖然沒有直接的經(jīng)驗,但也可能因此思路和方法與前人截然不同,很幸運我在字節(jié)得到了這個機會。
馮大剛:今天花更多的時間在內(nèi)部的管理,還是外部的競爭?
譚待:我不認(rèn)為應(yīng)該把內(nèi)部和外部分開來看待這個問題,或者我們可以這樣理解:首先得解決生產(chǎn)力的問題,其次還得解決生產(chǎn)關(guān)系的問題,而生產(chǎn)關(guān)系又涵蓋內(nèi)部生產(chǎn)關(guān)系與外部生產(chǎn)關(guān)系。
管理者的重要職責(zé)在于,首先解決關(guān)鍵問題,其次解決只有自己能夠處理的問題。有些事情不一定能解決,就不必耗費過多精力在上面,要把精力放在只有自己這個層面才能解決的問題上。
馮大剛:這個問題是什么?例如最近一年必須要由你解決的問題是什么?
譚待:我在這一年中花費的精力主要是如何做好模型to B,包括內(nèi)部和外部。對于內(nèi)部產(chǎn)品而言,需要考慮的不只是如何提升模型的效果,還得思考怎樣降低工程架構(gòu)成本、提高產(chǎn)品的應(yīng)用性;對外也是如此,如何讓更多人使用,并將他們的反饋帶回來,提升自己的產(chǎn)品性能。此外,還得明確該采用什么樣的服務(wù)團隊、怎樣的陣型以及組織形式,從而為客戶做好服務(wù),實現(xiàn)良好的連接。
這里面存在許多不確定性,產(chǎn)品仍處于0-1階段,客戶需求存在許多不確定性,模型能力也在快速提升,同時在市場、技術(shù)、產(chǎn)品完成之后,還需要構(gòu)建對應(yīng)的組織架構(gòu)來承接。這些事情對我來說最重要,也是只有我能夠解決的問題。
02、大模型以前,所有B/C端的技術(shù)都是割裂的
馮大剛:怎么看待當(dāng)前大模型to B跟to C之爭?
譚待:大模型與之前的所有技術(shù)都存在差異,以前技術(shù)在to B跟to C是相互割裂的。例如,使用抖音并不等同于個人在使用火山引擎;在淘寶購物也不代表會使用阿里云,二者截然不同。但是今天大模型在to B跟to C仍具備高度耦合性,應(yīng)用背后的能力主要源自模型。大模型技術(shù)無論是to C還是to B,核心不會像以前涇渭分明。
但這也有好處。以前to B端很重要的一點是決策者與使用者脫離,我們不知道使用者如何使用。還有許多CRM、ERP產(chǎn)品都是如此,拍板的人并非使用的人,他們無法親自體驗,只能通過觀看PPT、講解案例去了解別人的使用方法。
然而大模型不同,首先大模型完全可以體驗,其次決策者和使用者在很多場景中都是相通的。我們現(xiàn)在遇到每一個客戶,包括董事長、CEO們,我的第一個建議都是讓他首先自己先去下載豆包APP,因為負(fù)責(zé)人和決策者對AI有感知,每天在使用,他才能了解企業(yè)哪些環(huán)境可以通過大模型優(yōu)化。
我認(rèn)為這不僅是大模型技術(shù)本身的改變,也會對整個to B和to C的商業(yè)模式帶來很大差別。過去業(yè)務(wù)端對于云如何使用是沒有感知的,真正與云打交道的是運維人員,但研發(fā)人員只能看到一堆數(shù)字,只有在事故發(fā)生時才能有所感知。然而大模型不一樣,每個人都是首先作為用戶,能夠在日常中感知到產(chǎn)品的優(yōu)劣;其次再討論如何作為工具提升生產(chǎn)效率。
馮大剛:不同大模型之間,C端產(chǎn)品差距很大嗎?
譚待:C端產(chǎn)品的差距可能更大,例如prompt如何書寫,如何優(yōu)化產(chǎn)品設(shè)計交互等,這些都會有加分項,模型本身的效果也存在差距。
我通常不會直接告訴大家豆包的好用程度,只是告訴他們我們有這些能力。只看參數(shù)其實沒有意義,或者說參數(shù)只是其中一個很片面的信息。你使用后有何感知?是否使用其他產(chǎn)品?自己使用后的對比感受如何?當(dāng)我們討論一個大模型好不好用,僅憑一個PPT是不能欺騙你日常的感受的,你會有一個明確的判斷——這個產(chǎn)品真的好用。很多人跟我說,覺得豆包好用,而且關(guān)鍵的是豆包的進步速度很快,(模型學(xué)習(xí)的)斜率很高,這一點非常重要。
03、誰是第一?
馮大剛:如果討論大模型領(lǐng)域到底誰是“第一”,你認(rèn)為最關(guān)鍵的指標(biāo)是什么?
譚待:從消耗數(shù)量來看,token消耗數(shù)最重要,這代表了多少推理在使用。項目金額不是一個好維度,因為存在太多集成項。如果項目偏私有化,那就包含很多成分,例如硬件、軟件、應(yīng)用開發(fā)以及人力外包。這里面大模型的占比是多少?不同的統(tǒng)計口徑將會得出不同的結(jié)論。
馮大剛:你認(rèn)為火山現(xiàn)在處于一個什么樣的位置?
譚待:雖然沒有第三方數(shù)據(jù),但縱觀行業(yè)里每個人宣布的數(shù)據(jù)來看,我認(rèn)為火山處于一個很靠前的位置。但大家口徑不同,例如我們直接講token數(shù),有些人不講token數(shù),他們只講調(diào)用次數(shù)。目前所有模型的定價模式都是按照token收費,雖然我認(rèn)為這是一個更初級的商業(yè)模式,但不否認(rèn)這個模式可能會存在很長時間,可能最終它會演化成不是按token結(jié)算,而是按照價值收費的模式。
例如OpenAI原來的訂閱費是200美金,他要做一款2000美金的產(chǎn)品,因為他AI的能力顯著提升了,所以能為你提供更高的價值,這是長期商業(yè)模式的演化。

馮大剛:您提到的按價值收費的方式,在互聯(lián)網(wǎng)大廠中似乎還沒有實施。
譚待:這是模型能力逐漸增強的結(jié)果。模型需要實現(xiàn)功能很復(fù)雜的agent才能按照價值收費,我希望在25年內(nèi)可以有一些試點。
馮大剛:怎么定義按照價值收費?
譚待:這種模式在火山一開始就存在。我們在很多領(lǐng)域采用端到端的方式,為企業(yè)解決更困難的問題,幫助企業(yè)節(jié)省資金,并且?guī)椭惬@利。例如最初我們在火山的產(chǎn)品是提供推薦服務(wù),通過AB測試,我能夠明確告訴你,我的服務(wù)能夠幫助你多賺多少錢,然后我從中拿一部分。在大模型我們也要實現(xiàn)這一點。按照價值收費的核心在于,AI必須深入到業(yè)務(wù)側(cè)去,大模型未來也有機會做到這里。
馮大剛:現(xiàn)在許多人開始講,例如Kimi,新增并不重要,留存才是更重要的事情。你認(rèn)為留存取決于什么?
譚待:在C端留存需要保證用戶體驗,B端也是如此。我們現(xiàn)在非常關(guān)注留存。用戶這周使用,下周是否還會使用?雖然我們沒有沿用C端留存率、活躍率的指標(biāo)體系,但是如果用戶在第二周或者第二個月不來,說明你沒有做好。
04、AI云原生時代
馮大剛:這次(冬季FORCE原動力大會)豆包的更新里,你認(rèn)為什么最值得關(guān)注?
譚待:這次豆包大模型的新發(fā)布和升級,核心在于兩個方面:
一是豆包Pro作為我們最強的語言模型,會有較大版本升級,這個版本全方位對齊了GPT-4o,能夠解決更多難題。同時我們發(fā)布了豆包視覺理解模型,視覺是人類理解這個世界最重要的手段,對于大模型來說也是如此。
除了模型本身外,第二大亮點是推出了一系列模型落地需要對應(yīng)的智能體開發(fā)平臺和工具,其中包括火山方舟的新能力,例如利用大模型進行多模態(tài)搜索和推薦等,我們還提供了100+行業(yè)應(yīng)用模板,幫助企業(yè)低成本地完成這些事情。
接下來我們還會圍繞更強的模型、更低的成本和更易落地的方案展開工作。現(xiàn)在大模型在企業(yè)IT負(fù)載中占比越來越大,整個企業(yè)的IT架構(gòu)已經(jīng)到了變化的節(jié)點。最初我們討論的是傳統(tǒng)的IT架構(gòu),之后討論云原生。我們認(rèn)為現(xiàn)在有AI之后,行業(yè)將會走向AI云原生。
馮大剛:怎么理解這個AI云原生?跟云原生有什么區(qū)別?
譚待:雖然有人提到AI原生,但我認(rèn)為“AI云原生”是更準(zhǔn)確的表述。AI背后是算力驅(qū)動邏輯,因此云端算力的消耗毫無疑問會更大。云原生帶來的彈性和構(gòu)建上的冗余度會被AI云原生繼承,但與此同時AI的出現(xiàn)讓計算和數(shù)據(jù)安全發(fā)生很大變化,以前我們所有的計算架構(gòu)面向CPU進行優(yōu)化,現(xiàn)在單獨在CPU外再加一個GPU,需要面向GPU重新構(gòu)建。傳統(tǒng)以太網(wǎng)架構(gòu)已無法滿足計算網(wǎng)絡(luò)與數(shù)據(jù)層面的新需求。我們需要以GPU為核心,重新構(gòu)建一套數(shù)據(jù)流動體系。
而且在數(shù)據(jù)層面,大模型帶來的一個最大價值,就是我們終于能夠很容易地處理非結(jié)構(gòu)化數(shù)據(jù)。以前數(shù)字化轉(zhuǎn)型里第一個困難點在于,如何將非結(jié)構(gòu)化數(shù)據(jù)轉(zhuǎn)化為結(jié)構(gòu)化數(shù)據(jù)。這個過程很容易丟失許多信息,無法找回。下一步,如何提取非結(jié)構(gòu)化數(shù)據(jù)也是一件非常困難的事情。但有了大模型之后,非結(jié)構(gòu)化數(shù)據(jù),例如語音、視頻,都可以直接交給大模型處理。
另一方面,我們也要考慮如何將結(jié)構(gòu)化數(shù)據(jù)和非結(jié)構(gòu)化數(shù)據(jù)在數(shù)據(jù)庫里統(tǒng)一存儲、管理。我不能在大數(shù)據(jù)中放置一份數(shù)據(jù),在模型處理上又放置一份,這樣數(shù)據(jù)會堆積太多,這個變化將涉及整個數(shù)據(jù)架構(gòu)的重新設(shè)計。
安全方面也是如此。這次FORCE大會上我們也探討了如何利用AI解決隱私問題的私密計算方案。我們提供的是云上的、能夠解決更通用需求的方案,例如知識庫、推理和其他領(lǐng)域。以前安全和運維有大量日志和報警,都是靠人工處理,但事實上這些可以通過AI做好安全和運維把控。
總的來說,從IT系統(tǒng)設(shè)計、數(shù)據(jù)、安全等方面,AI都帶來了大量的變化。這次我們圍繞AI延伸有一系列產(chǎn)品的發(fā)布,這也是云2.0帶來的變化。云原生技術(shù)已經(jīng)存在10多年的時間,它是從2013年、2014年開始提出的技術(shù)。未來10年或者20年,行業(yè)將會走向AI云原生。
05、AI技術(shù)普惠
馮大剛:目前豆包的很多工具和AI已經(jīng)在字節(jié)內(nèi)部使用,使用效果如何?
譚待:非常好,現(xiàn)在我在飛書上提問題,它會幫我自動總結(jié),如果數(shù)據(jù)有異常,還會替我查看原因。而且我們現(xiàn)在針對客戶的工單進行分析,在總結(jié)完結(jié)構(gòu)與非結(jié)構(gòu)數(shù)據(jù)后,還可以了解他們對我們的產(chǎn)品是否滿意。從管理者的角度來看,這讓你能夠更好地掌握全局。IT架構(gòu)也是如此,例如我們現(xiàn)在的豆包模型的效果好、成本低,是因為這些首先都在公司內(nèi)部平臺上線,我們通過AI云原生計算和網(wǎng)絡(luò)優(yōu)化,否則我們無法實現(xiàn)持續(xù)AI產(chǎn)品的低價與盈利。
馮大剛:豆包視覺理解模型是怎樣定價的?
譚待:豆包大模型的定價,是要做好 AI 普惠的事情。
我們推出大模型,是希望它能真正用起來,能夠通過 AI 幫助更多的開發(fā)者和企業(yè)來提效,特別是中小企業(yè)。因為開發(fā)者和中小企業(yè)以前缺乏各種各樣的資源,但是通過大模型,它能自己生成代碼,能自動創(chuàng)作內(nèi)容,能完成各種各樣的復(fù)雜任務(wù),其實是能大幅的提升開發(fā)者和中小企業(yè)的生產(chǎn)力。
如果要實現(xiàn)這個目標(biāo),第一是模型能力要更好,第二是成本要更低,這樣大家才能踴躍地去創(chuàng)新,才能去涌現(xiàn)越來越多的應(yīng)用,去解決實際的問題。
豆包大模型的定價,都是一步到位的合理價格,價格透明,不是“高刊例價+折扣”的做法。我們希望推動大模型的普惠,讓更多的中小企業(yè)和個人開發(fā)者能夠釋放自己的生產(chǎn)力,幫助他們做更多的創(chuàng)新,這也是可持續(xù)的事情。不僅豆包大模型在降低使用成本,從全球來看,OpenAI、Gemini都在不斷的降價,其實都是在用類似的方法來做。
馮大剛:但還是會有人覺得你們在打價格戰(zhàn)。
譚待:對于企業(yè)級市場來說,商業(yè)模式是建立在可持續(xù)發(fā)展的基礎(chǔ)上,任何商品必須是盈利的,不能靠補貼來降價。如果降價是虧損的,規(guī)模越大虧得越多,這就不是合理的商業(yè)模式。
即便豆包視覺理解模型定價只有3厘錢每千tokens,我們也保持毛利是正的,并不是賠錢補貼。
馮大剛:為什么能做到這樣的價格?
譚待:豆包大模型是在技術(shù)上做了大量的優(yōu)化,通過技術(shù)創(chuàng)新降低成本,這樣既實現(xiàn)了AI科技普惠,也能夠讓我們的業(yè)務(wù)是有毛利的、可持續(xù)發(fā)展的狀況。
具體的做法是算法、軟件工程和硬件結(jié)合的方案:比如算法上有更好的模型結(jié)構(gòu),可以用更低的成本去做復(fù)雜的推理。對比一下,人類大腦(對應(yīng)GPU功能)其實只有5瓦特的功耗,是非常低成本的,大模型也有非常多優(yōu)化的空間,能夠讓它在保持相同的智能水平的情況下,使用成本越來越低。另外,從一開始算法團隊在模型結(jié)構(gòu)設(shè)計的時候就考慮到了豆包大模型推理量巨大的需求,在預(yù)訓(xùn)練階段就針對性的在attention,KV cache機制上做了創(chuàng)新優(yōu)化。既保持了模型的智能水平,又對推理極為友好,可以有效降低推理成本。
另一方面,工程上很重要的一個點就是規(guī)模化。因為規(guī)模越多,有越來越多的不同的負(fù)載,就可以把不同負(fù)載進行混合調(diào)度。比如有的科研任務(wù)是在半夜,大量進行模型的推理;辦公的場景,使用高峰是在白天;有的負(fù)載是娛樂場景,可能是在早晚高峰。所以當(dāng)大模型的客戶越來越多,企業(yè)的負(fù)載越來越多元化的時候,就可以通過規(guī)模化的調(diào)度把成本降低好幾倍。
火山引擎全力推廣豆包大模型,其實已經(jīng)積累了這樣的規(guī)模優(yōu)勢。此外,我們在具體的軟硬結(jié)合的方案上也做了很多事情,比如說我們應(yīng)該是國內(nèi)大規(guī)模率先去使用PD分離推理的。因為推理的不同階段,對算力和帶寬的要求是不一樣的。這樣我們就可以把模型推理按階段分離,放到不同的池化的資源池里面,再搭配底下不同的硬件選型。因為有的硬件是算力強,有的硬件是帶寬大,分別適配不同的推理階段,通過這種方式也能把成本降低非常多。再加上經(jīng)營管理的層面,我們做庫存的管理、供應(yīng)鏈的管理。上述因素綜合起來,每一個環(huán)節(jié)都有好幾倍的成本優(yōu)化,整體就是非常大的提升。
馮大剛:火山云在傳統(tǒng)云領(lǐng)域并非第一,是否可以依靠AI云實現(xiàn)后發(fā)制人?
譚待:我們做云的邏輯是,云一定是一個非常大的賽道,它是用GDP x 數(shù)字化占比 x 滲透率 計算出來的,因此這個空間非常大。第二,對于企業(yè)而言一定是多云,因此市場肯定能容納幾家公司,而不會僅限于一兩家公司。因為企業(yè)從供給安全角度來看,一定會使用多云,從容災(zāi)角度也是如此。第三,不同的云能力特點不同,它可以利用各家的優(yōu)勢。從數(shù)據(jù)角度來看,一個公司多云的比例和數(shù)量也能印證。云的本質(zhì)就是規(guī)模,服務(wù)器越多、帶寬越大、成本越低、彈性越好,就能夠用更好的價格提供更多服務(wù),擁有更多客戶。
對于云計算來說,AI是一個很大的變量。AI加入之后,云的性質(zhì)發(fā)生了變化,它能更好地服務(wù)于業(yè)務(wù)端。云的所有產(chǎn)品都會發(fā)生大變化,不像過去10年云的產(chǎn)品沒有變化,未來10年云的產(chǎn)品會發(fā)生很大變化。我們剛才講AI云原生就是這個概念。只要有變化,新的產(chǎn)品就能做出差異化,更好地服務(wù)好客戶,這是一個很大的機會。首先我們對于傳統(tǒng)云上平臺的規(guī)模非常有信心,對于AI這一部分更有信心,我們的目標(biāo)是要做到第一。
馮大剛:我觀察到,今年機場里的廣告普遍是云廠商和AI廠商在不斷地“秀肌肉”,方法是粘貼客戶名單。你認(rèn)為明年還會采用什么方法?
譚待:我最近也和團隊在溝通,我們的機場廣告是否需要稍微修改?之前的邏輯是告訴大家有很多人在使用,但現(xiàn)在我認(rèn)為顧客關(guān)注的是,是否有人深度使用以及帶來了什么效果?因此從我們的角度來看,未來我們可能會朝這個方向發(fā)展。
馮大剛:感謝譚總,今天交談得很愉快。我們用豆包問的最后一個問題來收尾,豆包問的是,在繁忙的工作之余,您有哪些個人愛好和獨特的放松方式?這些對管理有什么啟發(fā)?
譚待:我在平時放松時喜歡玩兩款游戲,一款是足球經(jīng)理,這是一款模擬經(jīng)營游戲;一個是文明,這是一個策略游戲。這兩款游戲每次花費的時間都非常長。首先我對歷史和足球都很喜歡,其次你可能也能領(lǐng)悟一些管理理念,并且可以進行沙盤演練等操作。我認(rèn)為你每天思考的問題,例如今天思考了很久的管理問題,無論是看書還是玩游戲,這個過程中一定會聯(lián)想到這些問題。而且這兩款游戲都是單機版,可以存檔,這意味著你可以永遠勝利(笑)。





京公網(wǎng)安備 11011402013531號