21世紀經濟報道記者 鄧浩 上海報道
自從年初Deepseek R1開源模型“掀桌”以來,接入Deepseek成為幾乎所有下游AI應用廠商的選擇,甚至有部分資本市場人士感嘆大模型的戰爭已經結束了。
事實果然如此嗎?
7月26日,大模型六小虎之一的MiniMax創始人、CEO閆俊杰在2025世界人工智能大會(WAIC)首日的主題演講上給出了自己的回答,“我們認為,AI領域一定會有多個玩家持續存在。”
在閆俊杰看來,AI一定會被掌握在多家公司的手中,其中有不少可以自洽的邏輯。
首先,由于所有模型,都依賴對齊(Model Alignment),模型不同,對齊目標也會不一樣。其舉例稱,有的模型對齊目標是一個靠譜的程序員,那么做 Agent 就會特別的強;有的模型它對齊目標是與人的交互,那么它就會比較有情商,能夠做流暢的對話;有的模型可能會充滿想象力。因此,這或許可以給模型帶上屬于開發者自己的價值觀和思想偏好。
其次,閆俊杰透露,MiniMax最近半年用的AI系統其實都已經不是單個模型了,而是一個多Agent系統,里面涉及多個模型,不同的模型也可以使用不同的工具,通過這樣的方式讓AI智能水平越來越高,能夠解決越來越復雜的問題。“這個東西帶來的結果是,單一模型的優勢在這樣一個多Agent 系統里逐漸變弱。”
最后,閆俊杰認為是過去一年開源模型如雨后春筍般涌現,開源模型變得越來越有影響力。最好的開源模型越來越多,同時也在不斷逼近最好的閉源模型。
無獨有偶,不久前,月之暗面推出了Kimi K2基礎大模型,并且選擇了開源,引發資本市場的一波熱炒。華西證券評價稱,相較過去的基座模型,K2更強調代碼能力和通用Agent任務能力。在多個標準測試集下,具備與OpenAI和Anthropic旗下大模型接近的能力。
6月,MiniMax已經推出了號稱世界上第一個開源的大規模混合架構的推理模型MiniMax-M1,被業內視為面對DeepSeek R1強勁競爭給出的回應。
在以閃電注意力機制為主的混合架構幫助下,MiniMax推算,在生成長度為10萬tokens的場景下,MiniMax-M1的計算量(FLOPs)為DeepSeek R1的25%,在長文本處理任務中具備顯著優勢。
成本節約則更具優勢,在進行8萬Token的深度推理時,M1所需的算力僅為DeepSeek R1的約30%;生成10萬token時,只需要后者的25%。
一個有趣的觀察是,在過去一年半, 業內可使用算力顯著增加的情況下,AI模型的大小卻沒有發生特別大的變化,比如前述的Kimi K2總參數達到1T,激活參數為32B。
閆俊杰認為,原因在于對所有實用模型而言,計算速度是一個比較關鍵的因素。如果模型計算速度特別慢,就會降低用戶的使用意愿,所以所有公司都關注模型的參數量和智能水平之間的平衡。
此外,閆俊杰判斷,通過大量的計算網絡系統和優化算法,在接下來一兩年之內,最好模型的推理成本可能還能再降低一個數量級。進而其認為訓練單個模型的成本不會顯著地增加。
不過,盡管技術演進優化或許可以讓AI研發不再那么燒錢,但是算力使用可能還會繼續飛速增長。
閆俊杰透露,“盡管 Token 會變得很便宜,但是使用 Token 的數量會顯著增加。去年ChatBot單個對話只要消耗幾千個Token,現在 Agent 單個對話可能消耗幾百萬個Token,并且因為AI解決的問題越來越復雜,越來越實用,那么用的人也會越來越多。”





京公網安備 11011402013531號