
零一萬物創(chuàng)始人、CEO李開復
今年11月30日,風靡全球的ChatGPT迎來了兩周年日子。
這個下一代AI浪潮的命運之子、擁有3億活躍用戶的 AI 聊天機器人應用,引爆了全球新一輪 AI 創(chuàng)業(yè)熱潮,讓世界迎來AI 2.0時代。
零一萬物日前推出的全新旗艦預訓練模型Yi-Lightning,近期在國際權(quán)威盲測榜單 LMSYS 上超越OpenAI GPT-4o-2024-05-13、Anthropic Claude 3.5 Sonnet(20241022),排名世界第六,中國第一。(數(shù)據(jù)截至2024年11月20日)
同時,零一萬物早已躋身10億美元“獨角獸”,并且全面瞄向 AI 大模型的商業(yè)化,公布了一整套“從 AI Infra 到模型,再到應用”的全行業(yè) ToB 解決方案:構(gòu)建大模型算力平臺的智算中心解決方案;面向本地生活、辦公會議等場景的“如意”數(shù)字人解決方案、萬視營銷短視頻解決方案在內(nèi)的零售行業(yè)解決方案;以及模型訓練解決方案——由數(shù)據(jù)平臺、預訓練平臺、訓練后平臺、模型Playground等構(gòu)成全鏈路模型運維平臺,加速 AI 大模型技術(shù)的商業(yè)落地。
12月6日-7日,2024 T-EDGE創(chuàng)新大會暨鈦媒體財經(jīng)年會在北京召開,以“ALL-in on Globalization ,ALL-in on AI”為主題,匯聚全球科技和商業(yè)領(lǐng)導者,共同探討人工智能對全球各行業(yè)的巨大影響,以及企業(yè)全球化增長新格局新趨勢。作為鈦媒體集團每年年終舉辦的科技和財經(jīng)領(lǐng)域的頂級盛會,T-EDGE一直代表了鈦媒體在科技與經(jīng)濟前瞻性,以及推動國際創(chuàng)新交流上的高質(zhì)量追求。
12月7日T-EDGE大會上,鈦媒體集團創(chuàng)始人、董事長&CEO,T-EDGE全球委員會主席 趙何娟,與零一萬物CEO、創(chuàng)新工場董事長李開復,圍繞 AI 2.0驅(qū)動全球科技創(chuàng)新,推理、端側(cè)、行業(yè)和基礎大模型的發(fā)展,以及邁向AGI 如何更好落地等熱點話題進行了一場深度對話交流。
“我們堅決不盲目燒錢買不賺錢的流量,也不做‘賠本賺吆喝’的生意。”李開復反復強調(diào),零一萬物要在性能優(yōu)異的基礎上,做最快、最便宜的模型,來點燃大模型在To C、To B的生態(tài)。
以下是鈦媒體AGI摘錄的李開復七個重要觀點:
過去一年半時間,模型能力越來越好,價格也越來越便宜,推理成本一年下降了10倍左右,而零一萬物希望做的,不是1年10倍(速度增長、成本下降),而是希望做到三、四十倍,要比行業(yè)更快三、四倍,更快催生出好的應用。 o1 也是 Scaling,只不過 Scaling 的對象從 Training Time Compute 變成了 Inference Time Compute,兩者相輔相成之下能夠更高效地突破模型能力的上限。 Scaling Law還是有效的,但它的效率不像之前那么高了,主要原因是有兩點:數(shù)據(jù)受限,文本數(shù)據(jù)的遞增不會像過去那么快;同時,用堆GPU卡的方式進行模型訓練會面臨算力利用率降低的問題,GPU的數(shù)量和實際訓練時的收益并不是線性提升的關(guān)系。 模型做得又快又便宜,一個核心是少用內(nèi)存,善用內(nèi)存,少用GPU,能存的不要算,必須算的才算,這些是原則。而且,對中國大模型初創(chuàng)公司而言,要側(cè)重“有效的創(chuàng)新”,不要單槍匹馬地去挑戰(zhàn)過于宏偉的AGI實驗,有可能花了巨大成本但難尋落地的場景。 明年,全球推理算力會進一步降價,進而推動AI-first的To C應用爆發(fā),“需要用一段時間去積累用戶再商業(yè)變現(xiàn)”應用成長路徑有望會迎來機會。其中,中國AI 2.0未來的優(yōu)勢是,中國能夠做出性價比更高的模型,極低的推理成本將成為High DAU應用的基礎,同時,中國團隊也積累了大量從移動互聯(lián)網(wǎng)時代傳下來的打法,能夠用于AI應用的推廣和增長。多種因素疊加下,中國團隊在To C方向上會有很大希望。 行業(yè)的最大挑戰(zhàn)是,作為大模型初創(chuàng)公司,現(xiàn)在進入了新階段——要證明自己可以有持續(xù)的收入增長。在技術(shù)競爭變成商業(yè)化競爭的過程中,大模型初創(chuàng)們能否從起初的學者型創(chuàng)業(yè)轉(zhuǎn)變?yōu)槠髽I(yè)家創(chuàng)業(yè)?這個坎如果過不去的話,最終路還是會越走越窄。 零一萬物的定位是,第一、堅決做最快最便宜的世界第一梯隊模型,點燃To C、To B的生態(tài);第二,堅決不盲目燒錢買不賺錢的流量,也不做“賠本賺吆喝”的生意。李開復強調(diào),AI大模型公司要去為客戶服務,與客戶共同創(chuàng)造價值,達到雙贏。至于AGI,他表示,總有一天,AI會能夠做的事情會比人類更多,但是,AI未必要做到人類所能做的每一件事情。他預計,我們距離通用人工智能(AGI)還有7年時間,AGI出現(xiàn)的大致時間點會是在2030年。

以下是趙何娟和李開復之間的對話全文(經(jīng)整理):
趙何娟:開復老師您好,歡迎來到我們2024 T-EDGE全球創(chuàng)新大會暨鈦媒體財經(jīng)年會,我們非常高興能請到開復老師跟我們做這樣的一個對話。
李開復:何娟你好,謝謝邀請,各位觀眾朋友大家好。
談推理模型發(fā)展:o1更像是理工科,需與基礎模型并存發(fā)展
趙何娟:過去一年,AI無論是在硅谷、美國還是中國其實都發(fā)生了很多大的事件。最近您自己覺得,我們能觀察到的整個硅谷和全球AI發(fā)展的大趨勢里面預計可能接下來的一年可能得變化里面,您最看重的一個可能性的變化是什么?
李開復:我最看重的變化就是,越來越多開發(fā)者會意識到,今天非常好的模型已經(jīng)非常便宜了,能夠支撐一個百花齊放的AI-first應用時代到來。我覺得這將是2025年最大的事件。
在此之前,這些應用很難被開發(fā)出來。你可以想象,僅在一年半之前,足夠好的模型只有GPT-4,現(xiàn)在回頭看,GPT-3.5其實能滿足的應用場景很少,因為模型能力不夠強。但如果一年半之前應用開發(fā)者選擇接入GPT-4,每調(diào)用一次就要花費1-2美元,誰又能做得起應用呢?很容易自己就會做破產(chǎn)。
在過去一年半的時間內(nèi),模型性能越來越好,從GPT-4、Turbo、4o到o1,模型能力已經(jīng)提升了很多。另一方面,當年的GPT-4,現(xiàn)在來看也已經(jīng)很便宜了,即便是4o,每百萬token也只有4.4美金(按輸入輸出3:1比例計算),比一年多以前的GPT-3.5下降了接近20倍。
從整個行業(yè)來看,推理成本一年下降了10倍左右。整個行業(yè)在以1年十倍的速度實現(xiàn)推理速度變快和推理成本下降。而零一萬物希望做到的,不是1年10倍(推理速度增長、成本下降),而是希望做到三、四十倍,也就是說,我們要比行業(yè)更快三、四倍。這樣的話,零一萬物就能先人一步做出好的應用。
趙何娟:成本下降會帶來大量應用爆發(fā),就是您對2025年特別大的一個期待或者預判。剛才您也提到了,今年其實有很多模型在迭代。前段時間,我們在硅谷辦公室也組織了一次關(guān)于o1大模型平臺的討論,有邀請x.AI、OpenAI相關(guān)的team leader來,我們討論的時候發(fā)現(xiàn),所有大廠現(xiàn)在都在做一件事情,就是o1這種推理模型。但是,o1跟過去的基礎模型其實在范式或在路線上,已經(jīng)有很大的一個變化了,我們是不是可以理解為,接下來所有大廠都會在推理模型上競爭,而不是基礎模型上競爭?那么基礎模型的競爭是不是到頭了?零一是不是也有考慮推出新的推理模型?
李開復:大家都在做推理模型,這肯定是一個趨勢,包含零一萬物在內(nèi)的少數(shù)中國大模型公司目前也已經(jīng)做出了不錯的初步成果。
從技術(shù)角度來說,o1既是一個大模型的延伸,也啟發(fā)了行業(yè)嘗試相對不一樣的做法。o1 也是在Scaling,只不過 Scaling 的對象從 Training Time Compute 變成了 Inference Time Compute,兩者相輔相成之下繼續(xù)高效地突破模型能力的上限。
就像人類的“快思考”、“慢思考”,都是大腦的功能和延伸,合并起來能夠思考得更深入,所以在大模型領(lǐng)域內(nèi),它們(推理和基礎模型)也是互補的。但之前沒有嘗試“慢思考”,大家都在做類似“快思考”一樣的探索,模型就像是在做快問快答,腦子里面想到什么就蹦出來什么。
當然,人類不經(jīng)過很多思考,往往也可以七步成詩,做出很多創(chuàng)意類的文學內(nèi)容等。所以,其實“快思考”,也就是o1之前的大模型也能夠完成很多人類的需求和任務。
但是,人類面臨難題時,答案不是一拍腦袋可以拍出來的,通過直覺給的第一個答案并不一定是對的,或者在講述幾句話之后我們發(fā)現(xiàn)思路不對,需要修正。人類有一個很強的能力,就是能夠自我反思、自我修正,即所謂的reflection(反思),那些能夠在科學界有建樹的人,往往存在批判式思維,能延續(xù)類似的邏輯推理思考,經(jīng)歷過不斷迭代求證甚至推翻重來的過程,才能取得一個有重大進步的科學成果。
o1的發(fā)展就類似上述的路徑,并且已經(jīng)向外界自證了它的價值。很多人也從巨型的預訓練模型轉(zhuǎn)到推理探索,整體思路演變成為了兩個并行的Scaling:第一個是模型越大越來越聰明,第二個是想得越久越聰明。兩個Scaling是可以1+1至少等于2甚至等于3。
我認為,這對行業(yè)而言是一個巨大的推進。雖然OpenAI沒有告訴外界如何做出o1,但是令我們振奮的是,隨著思考的時間長度增加,模型思考出正確答案的概率也會大大提升。兩個Scaling Law疊加,給追尋AGI的我們帶來了更多可能性,讓我們不必把雞蛋都放在一個籃子里。
趙何娟:我們是不是可以理解為,過去基于Transformer的基礎、基礎大模型Scaling Law法則已經(jīng)失效了?將沒有數(shù)據(jù)可算了?所以到達一個瓶頸之后,Scaling Law他不可能就是無限大,即便有算力,提供再多的算力也沒有用?
李開復:Scaling Law還是有效的,但它的效率不像之前那么高了。
第一個理由是,世界上數(shù)據(jù)總量只有那么多,雖然我們可以用機器造數(shù)據(jù),用視頻數(shù)據(jù)、多模態(tài)數(shù)據(jù)、具身智能數(shù)據(jù)來訓練,但是最濃縮的智能還是來自于文字,而文字總量就那么多,其他方法做出來的都不是最完美的。就像你說的,人類的所有文本數(shù)據(jù)都會被拿來用,但文本數(shù)據(jù)的增長不會那么快。
第二個理由是,要持續(xù)推進大模型預訓練的Scaling Law,就需要把越來越多的GPU和機器串在一起。當你只有一、兩張GPU做深度學習Transformer計算的時候,大模型預訓練時間幾乎都在計算,很少會涉及傳輸;但是當你擁有10萬張、20萬張GPU計算的時候,數(shù)據(jù)傳輸成本就會變得很高;到100萬、1000萬GPU的規(guī)模時,幾乎大部分時間都在做傳輸了。GPU越多,數(shù)據(jù)傳輸越慢,算力并不能隨著GPU增多而線性上升。
舉個例子,如果從一張GPU擴展到兩張,你可能會獲得1.95張卡的效能,但是如果你從10萬張變成20萬張,卡的效能可能會更接近10萬張卡的效能而不是20萬張。一個重要原因就在于所增加的傳輸環(huán)節(jié),以及過程中的延遲。
所以,我們認為Scaling Law的落地會變得越來越貴,邊際收益會降低,但并不是無效了,繼續(xù)堅持預訓練模型還是會有進步。
趙何娟:如果說OpenAI在推理模型方向上推出o1,可能明年還會推出o2系列的話,OpenAI為什么還要在GPT-5、6這條路上投入重金去發(fā)展?為什么這兩條路不能合為一條路?
李開復:這兩個路徑并不互斥。我覺得,做“快思考”、“慢思考”都是永無止境的。比如,一個文科生突然在微積分里找到了新大陸,但這并不代表你不該回去再讀柏拉圖,這兩者是沒有沖突的。
我們以后要做一個“超級大腦”,還是希望它“文理雙全”。
但我認為,這個過程中倒是存在著另一個悖論,這兩種Scaling Law都會讓模型變得越來越慢。第一種要求模型廠商把模型越做越大,而模型越大推理越慢;第二種在大模型上疊加“慢思考”,會進一步降低推理速度。假設未來模型推理所需要的時間從目前的5秒到60秒,延長至了5分鐘到60分鐘,那模型在絕大多數(shù)場景下就不適用了。
所以我認為,這里存在著一個非主流、但是零一萬物認為很重要的認知,尤其在o1為代表的“慢思考”出現(xiàn)之后,更凸顯了這一認知的重要性——我們一定要把推理做到超快。你可以這么想象,如果零一萬物訓推優(yōu)化出一個很好的“快思考”模型,回答同一個問題,別的模型需要3秒鐘,我們的模型只要0.3秒鐘,假設慢思考會讓模型變慢20倍,3秒鐘變慢20倍會變成1分鐘,但是我們的0.3秒變慢20倍才6秒鐘,在很多場景下依然是可用的。
所以,當你擁有一個非常快的推理引擎時,疊加“慢思考”后也不會特別慢,對用戶的價值就會更大。所以零一萬物會堅持做超快的推理模型,因為超快的推理速度不僅在“快思考”的階段有所助力,在引入“慢思考”后,它還能夠讓模型在具備令人驚艷的性能的同時,使推理速度保持在可用的范圍內(nèi)。
趙何娟:我們在理解您說快思考基礎模型邏輯的時候,其實很清楚有數(shù)據(jù)、算力時限制的,但是o1這個新范式的推理模型的時候,其實是有很多不清楚的,比如推理的慢思考一定是相對的詞,如果我們把慢思考的5秒提升到3秒,這個就變成我推理模型的最關(guān)鍵因素,怎么把推理的慢速度提快一點點,這或許就是競爭力,那么您覺得,做推理模型能夠提高這一點點的競爭力關(guān)鍵是什么?是算法嗎?
李開復:這肯定是核心競爭力。我認為這也是零一萬物的最大特色。我們在“快思考”階段的推理速度就非常快。
趙何娟:推理速度再快,思考就會非常快,那么這是如何做到的?我們連OpenAI 的o1怎么做的,都還不確定,他們是黑盒子。那么,零一把推理變快兩三倍,o1推理也快2-3倍,那么零一萬物為什么能夠把推理模型做得這么快呢?
李開復:我們做了下面幾個工作。
第一,尋找方案解決速度減緩問題。大模型速度逐漸變慢是因為GPU在不斷計算。那么,我們是否有可能讓GPU少算點?其實在經(jīng)典計算機學里面就有提到,要做計算和存儲的遷移。也就是說,能被記得的內(nèi)容就不用再算一遍了。計算機學里的Hash Table(哈希表)等等這些技術(shù),其實就是指,別什么都算,能記下來的內(nèi)容就不要算,算過一遍的內(nèi)容記住然后下次直接用就行了。
第二,Memory Caching(內(nèi)存緩存)。后續(xù)可能會用到的數(shù)據(jù),我先把它調(diào)到附近來,要調(diào)用的時候方便就近使用。這就類似于,日常在網(wǎng)上看視頻有時候會卡頓,原因就是要通過網(wǎng)絡傳輸很多數(shù)據(jù),但是一個聰明的做法是,先把視頻部分緩存到我的電腦或手機上,即便出現(xiàn)網(wǎng)絡卡頓,視頻還是能從本地播出,這就是一個Caching的方向。
所以簡單地說,如果能把底層的推理模型,從一個計算模型,變成一個更多是存儲的模型,推理速度就會變快很多,甚至變快三倍。
另外,零一萬物在做模型研究的時候,就不會去研究那種超大、無法縮小、沒法變快的模型。我們從做科研的第一天就會考慮,最終做推理時會用多大的機器,有多少個HBM、多少RAM、多少SSD,然后統(tǒng)籌布置模型訓練。
零一萬物會先定一個目標——做又快又便宜的模型,在這個基礎上做到最好。零一萬物的每一個人,無論是做AI infra的、做模型訓練的、做推理引擎或者做數(shù)據(jù)中心的,全部都是秉著這一個目標去做,因此做出來的模型才會這么快。
趙何娟:您說得特別好,又快、又便宜,這是兩個非常關(guān)鍵的因素,這是否也代表著 AI 模型能否在應用市場普及的關(guān)鍵因素。快我們現(xiàn)在理解了,但便宜您是怎么做到的?我們都知道算力沒辦法便宜,數(shù)據(jù)現(xiàn)在越來越折桂,那我們能夠做到加快性能和推理速度的同時,還能做到便宜?
李開復:我們加快模型的速度不是通過堆更多的機器讓大模型變快,而是用同數(shù)量、同規(guī)格的機器讓大模型變快,這樣訓推出來的模型才能多快好省,才有競爭力和性價比。
我們的硬件是固定的。零一萬物會在相同硬件的前提下做到最快。模型速度變快之后,假設以同樣的成本多生成了三倍的token,那公司就可以獲得三倍收益。或者換句話說,以同樣的成本多生成了三倍的token,那模型對外的價格也會降到原先的1/3甚至更低。
趙何娟:所以您認為這中間最核心的是什么?
李開復:核心其實就是少用內(nèi)存,善用內(nèi)存,少用GPU,能存的不要算,必須算的才算,這些是原則。
另外,在零一萬物做AI科研的同學,被要求不要去做那些過于宏偉的AGI實驗,要做“能落地和最有效的創(chuàng)新”。
一個公司戰(zhàn)略定位要從自身實際情況出發(fā)。當年IBM的電腦是巨型且昂貴的商務機,微軟和蘋果則做出了人人可用的PC。幾家公司的戰(zhàn)略和路徑出現(xiàn)了明顯分野:有的要做世界最大、最強的電腦,有的則要做一個最快且人人可用的電腦。零一萬物目前選擇的路徑是第二種。
另外,我剛才的描述也可以被理解為“垂直整合”。為什么早期的 iPhone那么驚艷、那么好用?就是因為喬布斯完美地實現(xiàn)了垂直整合的工程工作。談到零一萬物聚焦的目標,它不見得是由一個偉大的論文,或者是巨大的技術(shù)突破,或者是靠堆更多GPU做出的結(jié)果。我們現(xiàn)在所要實現(xiàn)的,是一個靠譜、快速、卓越的工程工作。
零一萬物做大模型的第一目的,就是要快、要便宜,在這個前提之下盡可能把模型做到最好。在這樣一個共同的目標下,用“垂直整合”的思路,來把內(nèi)存的問題、降本增效的問題做好,最終設計出一個兼具性能與性價比的模型。
談中美AI發(fā)展:明年To C、ToB都會爆發(fā),但開源模型仍存挑戰(zhàn)
趙何娟:我特別能理解這背后的一個機制和原理。
我們接下來看應用端,我們經(jīng)常說中國的優(yōu)勢是一個龐大的應用市場,中國是個大市場,這是我們的優(yōu)勢。雖然我們基礎科研不如美國,但是我們因為應用市場巨大,而且相關(guān)的創(chuàng)業(yè)者也比較多,如同互聯(lián)網(wǎng)和移動互聯(lián)網(wǎng)應用一樣,我們會領(lǐng)先于全球。但是我們現(xiàn)在看到,尤其在通用大模型,除了ChatGPT這樣一個C端產(chǎn)品外,已經(jīng)很少有特別爆發(fā)性的C端應用,更多的可能在B端,包括美國現(xiàn)在B端應用“百花齊放”,甚至有的已經(jīng)開始掙錢了,這一塊對于中國來說又是一個短板。我想問,這會不會加大我們對于美國的差距?然后,我們怎么看待現(xiàn)在應用市場上的這些機會,到底是To b(企業(yè)級)先行還是To C(消費級)先行?
李開復:在國內(nèi)市場上,我們也看到了你所說的這幾點擔憂,但是我依然認為,2025年會是一個轉(zhuǎn)折點,AI-first的To C、ToB應用都會爆發(fā)。
從To C的角度來看,“能夠很快變現(xiàn)但增長很慢”的To C APP不是中國團隊的長項,“前期積累大量流量隨后變現(xiàn)”的To C APP才是中國團隊的長項。但在過去的一年里,構(gòu)建后者這類應用的方法論在國內(nèi)其實沒有用武之地。
目前的Chatbot應用的用戶量還沒有達到能夠變現(xiàn)的階段,但如果在無法變現(xiàn)的前提下,依靠純投放獲得百萬DAU要花費大量資金,這不是長久之計。
但是我對2025年是樂觀的,因為推理成本會足夠便宜、模型也足夠好。零一萬物的Yi-Lightning模型,還有一些其他的優(yōu)質(zhì)國產(chǎn)模型,不僅在性能上已經(jīng)對齊美國頂尖模型,而且還做到了更快、更便宜。明年一個大趨勢就是,越來越便宜的推理成本會推動High DAU的應用出現(xiàn),“先用一段時間積累用戶隨后再探索商業(yè)變現(xiàn)”,這類AI-first To C應用的成長路徑在明年會更清晰。
中國大模型領(lǐng)域未來一個很大機會也在于此。中國能夠做出性價比更高的模型,讓推理變得很便宜,把大量從移動互聯(lián)網(wǎng)時代積累下來的打法,用于AI應用的推廣和增長,催生出更多To C High DAU的AI-first APP。這幾個因素疊加下,中國To C會有很大希望。這是第一點。
接下來,有關(guān)To B我也同意你的說法,美國是一種“我?guī)湍阗嶅X、你幫我賺錢”的生態(tài),企業(yè)用戶有很成熟的付費習慣,這個付費習慣是中國的To B從業(yè)者非常羨慕的。在未來一年內(nèi),期待中國To B生態(tài)能從付費習慣上做出改變,這并不容易。
但是我認為,中國團隊也存在著獨特優(yōu)勢,就是中國大模型公司更愿意深入企業(yè)做定制。我們可以先嘗試單點突破,然后快速迭代。如果我們的模型能幫企業(yè)“印鈔票”,我們當然也能從企業(yè)客戶的增長中受益。
目前,在零售、游戲、政務等領(lǐng)域,我們已經(jīng)看到了一些“曙光”,零一萬物給客戶的價值足夠大,所以能夠得到不錯的回報。展望2025年,這是我所看到To B領(lǐng)域的希望。
趙何娟:剛才有講到一個點,關(guān)于To B應用層面,像OpenAI可能不會給你提供模型,而是API接口,那么這是否意味著,開源模型會比閉源模型更有優(yōu)勢?
李開復:開源模型是一個非常強大的勢力。零一萬物本身在做開源,也認可開源的做法,開源生態(tài)下也能夠出現(xiàn)相當好的模型,雖然未必是最好的。
但開源也有一些挑戰(zhàn)。
首先,開源是無國界的。越來越多的國家不愿意把數(shù)據(jù)分享出去,鴻溝會越來越大。同時,一個國家的合法數(shù)據(jù)在另一個國家不一定合法,跨國使用存在風險。
第二,開源模型也有相當高的調(diào)試門檻。大家對開源模型有一個很大的“誤解”,開源模型只是共享了模型和參數(shù),但訓練過程是黑箱。另一方面,即便是很多大企業(yè)的技術(shù)團隊也不是做模型微調(diào)的專家,所以在引入開源模型后,企業(yè)如何基于自身需求繼續(xù)訓練模型會是一個很大的挑戰(zhàn)。
第三,很多開源模型并沒有考慮到推理速度和推理成本的問題,即便性能不錯,但高額的推理成本和緩慢的推理速度很難滿足企業(yè)需求。模型的特性和企業(yè)訴求很可能是不一樣的。
閉源模型的優(yōu)勢就在于,頂尖的閉源模型性能會比開源模型好一些,而且模型廠商可以派專家團隊到企業(yè)去服務。在性能和ToB專業(yè)服務方面,采購閉源模型會更領(lǐng)先一籌。
趙何娟:那么,開源模型是不是更適合中國市場?
李開復:其實不見得。一般來說,中國大模型公司是愿意到企業(yè)去提供服務的。對于企業(yè)來說,是引入開源模型自行摸索更劃算,還是選擇與大模型公司合作共建效果更好?我認為是后者。除了少數(shù)技術(shù)比較強的企業(yè)之外,選擇與大模型公司共建是更好的選擇,大模型公司可以幫助企業(yè)訓練出差異化的模型。當然前提是,這家企業(yè)愿意付費。
開源模型的最大優(yōu)勢,就是免費,但按照美國人的話說——You get what you pay for,一分錢一分貨。你付0元得到的,可能需要你在其他層面付出更大的成本支出。
趙何娟:所以,即便是一個開源模型,到企業(yè)去做一些調(diào)優(yōu)后,可能也就會變成閉源模型,同時,有可能已經(jīng)不是開源和閉源的問題,而是可能更多是需要企業(yè)定制專屬模型,而這個專屬模型不一定是我們所謂的通用大模型了,更多可能是端側(cè)模型。我可以這么理解嗎?
李開復:定制的模型往往不是端側(cè)的,它是一個部署在企業(yè)內(nèi)部可控環(huán)境里運作的大模型。
我敢打賭,幾乎95%以上情況是,大模型企業(yè)幫企業(yè)做,要比企業(yè)在開源模型自行摸索效果更好。即便是拿零一萬物的開源模型,由企業(yè)自己做,我可以100%的保證,做出來的效果不如付合理的費用給我們,我們用閉源模型幫你一起做。
未來大模型挑戰(zhàn):2030年AI能力有望超越人類
趙何娟:我明白了。所以這個里面也有一個很有意思的問題,現(xiàn)在我們看美國To B的整個云生態(tài)里面,除了大廠外,新的大模型獨角獸一個是OpenAI、另一個是Anthropic,其實這兩個都有深度綁定的云服務商——OpenAI與微軟云深度綁定,Anthropic是與亞馬遜AWS深度合作的,而且現(xiàn)在分流越來越明顯,甚至都要綁定自己的云服務。所以在零一萬物看來,中國獨立大模型公司不是與云廠商綁定,怎么解決生態(tài)問題?
李開復:云服務在國內(nèi)還沒有像國外那么普及,大部分中國公司還是會選擇在企業(yè)本地部署模型,而不選擇云部署的形式。同時,不少企業(yè)使用大模型的場景都會涉及到內(nèi)部業(yè)務數(shù)據(jù)、財務數(shù)據(jù)、文檔郵件等,對保密要求很高,這些場景下企業(yè)也會更傾向于私有化部署。
未來兩年,大模型和云如何強強結(jié)合,可能還不會成為一個獨立大模型公司能碰到的挑戰(zhàn)。
趙何娟:未來兩年,作為一家獨立的大模型公司,與大廠的生態(tài)模型公司進行競爭,面對的最大挑戰(zhàn)是什么?
李開復:我認為,我們最大的挑戰(zhàn)是,大模型公司現(xiàn)在進入了一個新階段,要證明自己“可以有持續(xù)的收入增長,而且可以看到未來打平的一天”。我們從AI 1.0時代發(fā)展歷程可以看到,行業(yè)的關(guān)注點從誰團隊最強、誰寫了最多論文、誰打榜打了最高的分數(shù),逐漸轉(zhuǎn)移到了誰做了第一個落地的應用,誰收了第一桶金。就像當年的“AI四小龍”一樣,這些我覺得如今的大模型公司都做到了。
再下一個階段,大模型公司就要面臨靈魂拷問,就是你能不能拿更多的訂單,你能否在部分業(yè)務上盈利,并驗證業(yè)務是否達到了一個可擴張的階段,隨后才能考慮上市的問題。
我們看到,在AI 1.0時代,那些沒有通過靈魂拷問的公司,有些運氣好先上市了,但也碰到了破發(fā)等窘境;有些運氣不好的,就一直沒能上市。
所以,這就是大模型領(lǐng)域共同面臨的一個巨大挑戰(zhàn):在技術(shù)競爭變成商業(yè)化競爭的過程中,能否從起初的學者型創(chuàng)業(yè)轉(zhuǎn)變?yōu)槠髽I(yè)家創(chuàng)業(yè)?這個坎如果過不去的話,最終路還是會越走越窄。
現(xiàn)在,大模型“六小虎”在內(nèi)的幾家頭部大模型公司其實已經(jīng)幾乎不再彼此競爭了,各家走的路各不相同。大模型這個賽道比AI 1.0時代的計算機視覺要大得多,也許各家在不同的領(lǐng)域都會成為偉大的公司。5 年以后,我想這幾家大模型公司可能都不見得會被稱作“大模型公司”,因為他們都找到了新的道路。
趙何娟:您剛才也講到,我們現(xiàn)在國內(nèi)五、六家模型公司都有各自定位,你覺得零一萬物是屬于哪個定位?
李開復:兩個定位。第一、堅決做最快、最便宜的模型,點燃To C、To B的創(chuàng)新生態(tài);第二,堅決不盲目燒錢買不賺錢的流量,也不做“賠本賺吆喝”的生意。
趙何娟:當前我們可以看到,李飛飛在做空間智能,楊立昆在做世界模型,波士頓動力創(chuàng)始人Marc Raibert也在研究關(guān)于機器人的新算法,他們都在解決一個問題,就是利用機器人這種“具身智能”,希望解決大語言模型限制、或局限性問題。所以,您有沒有考慮未來如何把模型跟機器人進行結(jié)合做模型突破。
李開復:“具身智能”肯定是(AGI)下一個特別重要的方向和里程碑,會是生成式AI的一個重要應用場景。目前具身智能只能夠?qū)崿F(xiàn)對現(xiàn)實物體、環(huán)境的大致理解,做到準確性要求不高的基本操作,還有很多技術(shù)問題待解決。
從宏觀角度來看大模型的發(fā)展,文字只是第一步,多模態(tài)是第二步,再往下就應該是Action,“智能體”直接幫你把事情都做了,而不只是給你答案。它要有行動的能力,這樣才是一個完整的智能重現(xiàn)。
當然,我們也看到了很多很酷的演示,但這些都是低垂的果實,具身智能要產(chǎn)生真實的商業(yè)價值還需要一些時間。目前,零一萬物還需要聚焦大模型創(chuàng)新,暫時沒有辦法分心做這些事情。但我們很愿意去跟具身智能公司探索合作,大模型作為“大腦”,可以跟具身智能有很多疊加的方向。
趙何娟:最后預判一下,有人說o1推理模型出來后,意味著AGI已經(jīng)實現(xiàn)。在您看來,實現(xiàn)AGI還應該怎樣發(fā)展?以及AGI的實現(xiàn)還需要哪些條件?
李開復:今天人與AI,各自能做很多事情,有些事情人做得更好,有些AI做得更好。AI會比人發(fā)展得更快,未來總有一個時刻AI 能夠做的事情會比人類更多。但是,我們認為,它未必能做人類能做的每一件事情。
EPOCH AI智庫研究把AGI做了定量分析,分析里認為,從GPT-2到GPT-4提升了多少,GPT-6或GPT-7就需要在GPT-4的基礎上提升同樣的幅度才能夠達到AGI,也就是說從GPT-4到GPT-7的進步需要和從GPT-2到GPT-4一樣多。他們用比較科學謹慎的方法算出來,大概會是在2030年左右達到AGI,這個預測我認為是比較靠譜的。
趙何娟:好的,謝謝開復老師。剛才的對話非常精彩,開復老師都很坦誠的跟我們交流了很多他的真知灼見,我們也相信,在未來的一年,整個 AI 行業(yè)還會發(fā)生非常多的變化,我們也希望能夠成為持續(xù)的觀察者和記錄者,然后也持續(xù)跟開復老師保持這樣的對話和溝通。我也非常謝謝大家,能夠來參與到我們今天的對話,我們相信,開復老師給我們的回答還是非常精彩,也是很真實的一面。
謝謝開復老師,也謝謝大家參與。
(本文首發(fā)于鈦媒體App)





京公網(wǎng)安備 11011402013531號