亚洲狼人综合干_国产成人自拍网_97久草视频_日韩欧美在线网站_国产福利精品av综合导导航_粉嫩13p一区二区三区_成年人视频网站免费观看_国产亚洲综合久久_秋霞精品一区二区三区_国产精品99久久久久久久久_美女日韩在线中文字幕_久久免费在线观看

當前位置: 首頁 ? 資訊 ? 人工智能 ? 正文

硬核“吵”了30分鐘:這場大模型圓桌,把AI行業(yè)的分歧說透了

IP屬地 中國·北京 編輯:孫明 機器之心 時間:2025-07-28 16:07:32

什么?2025 年世界人工智能大會(WAIC)第二天,幾位行業(yè)大佬「吵」起來了。

是的,你沒聽錯!他們「吵架」的熱度,堪比盛夏的天氣,直逼 40 度高溫。

事情的起因是在一場圓桌論壇上,剛聊到模型訓(xùn)練范式,大家就展開了尖峰辯論。

但這場關(guān)于訓(xùn)練范式的思想碰撞,很快轉(zhuǎn)移到了模型架構(gòu)、訓(xùn)練數(shù)據(jù)、開閉源等尖銳的問題上。每個問題都深入大模型發(fā)展的核心要害。

最直觀的感受:「這是 AI 行業(yè)頂流的公開 battle,我愿稱之為今年最硬核『吵架』現(xiàn)場。」臺上嘉賓你來我往,臺下觀眾掌聲不斷。

而這場圓桌論壇,是由商湯科技承辦的 WAIC 2025 大模型論壇的「模型之問」圓桌 —— 探討的是「大模型技術(shù)演進與發(fā)展之路」。

圓桌主持人由商湯科技聯(lián)合創(chuàng)始人、執(zhí)行董事、首席科學(xué)家林達華擔任主持。嘉賓陣容堪稱當前大模型生態(tài)的多路代表:包括階躍星辰首席科學(xué)家張祥雨,上海人工智能實驗室青年領(lǐng)軍科學(xué)家、書生大模型負責(zé)人陳愷,北京智譜華章科技股份有限公司總裁王紹蘭,范式集團聯(lián)合創(chuàng)始人、首席科學(xué)官陳雨強,英偉達全球開發(fā)者生態(tài)副總裁 Neil Trevett。

可以說這場論壇匯聚了來自基礎(chǔ)模型研發(fā)、行業(yè)落地應(yīng)用、算力平臺等多個關(guān)鍵環(huán)節(jié)的代表性力量,是一次不同路徑、不同視角的深入對話。

在這場 30 分鐘的對話中,每一位嘉賓發(fā)言的背后,既是對技術(shù)路線的選擇,也關(guān)乎產(chǎn)業(yè)未來的走向,值得每一個人深思。

一開場,林達華表示:「大模型技術(shù)發(fā)展到今天,可以說是在繁花似錦的背后,我們也進入到了一個十字路口。過去大半年的時間里,大模型的技術(shù)格局經(jīng)歷了一個重要的范式轉(zhuǎn)變。從最初以預(yù)訓(xùn)練為主、監(jiān)督學(xué)習(xí)為輔的模式 —— 這一范式由 OpenAI 所開創(chuàng) —— 逐漸向注重推理能力提升的強化學(xué)習(xí)范式過渡。這個轉(zhuǎn)變標志著 AI 領(lǐng)域在技術(shù)上的進一步演化。」

隨著這個觀點的拋出,這場圍繞大模型的圓桌論壇正式拉開帷幕。

預(yù)訓(xùn)練與強化學(xué)習(xí)

在大模型爆發(fā)初期,基本是以預(yù)訓(xùn)練為主,比如 OpenAI 發(fā)布 GPT-4o 時,當時所有的計算資源都投入在預(yù)訓(xùn)練上。很多人認為如果預(yù)訓(xùn)練不足,模型能力上限將被鎖死。

隨著 o1 的發(fā)布,OpenAI 提出在預(yù)訓(xùn)練好的模型上,用強化學(xué)習(xí)做后訓(xùn)練(PostTraining),能顯著提高模型推理能力。如下圖左邊顯示隨著訓(xùn)練時間的增加,模型性能隨之提升。這種走勢是每個訓(xùn)練 AI 模型的人都熟悉的。

右邊表明在「測試時間」增加時,模型的表現(xiàn)也會得到改善。這一發(fā)現(xiàn)代表了一個全新的擴展維度 —— 不僅僅是訓(xùn)練時間擴展,還包括測試時間擴展,用到的訓(xùn)練方法主要是強化學(xué)習(xí)。

o1 的技術(shù)博客中展示了一張圖表:準確度和測試時計算之間存在對數(shù)線性關(guān)系,o1 的性能隨著訓(xùn)練時間和測試時的計算而平穩(wěn)提高

在 OpenAI 看來,未來強化學(xué)習(xí)計算可能會成為主導(dǎo)。

從 GPT-4o 到 o1 范式的轉(zhuǎn)變,不禁讓我們思考,原本由 OpenAI 所開創(chuàng)的以預(yù)訓(xùn)練為主、監(jiān)督學(xué)習(xí)為輔的范式,現(xiàn)在逐漸轉(zhuǎn)向了更加注重推理能力提升的強化學(xué)習(xí)范式。此外,OpenAI 前首席科學(xué)家伊利亞也提出了類似觀點,預(yù)訓(xùn)練時代即將終結(jié)。

隨著推理模型的崛起,強化學(xué)習(xí)越來越得到大家重視。因此一個值得深思的問題被提出,預(yù)訓(xùn)練和強化學(xué)習(xí)我們應(yīng)該怎么平衡?

張祥雨首先肯定了這套范式的合理性(從預(yù)訓(xùn)練到監(jiān)督微調(diào)再到 RL)。對于預(yù)訓(xùn)練而言,本質(zhì)就是壓縮語料的一個過程,之后在模型內(nèi)部形成一個更加緊湊的表示。這個表示對模型學(xué)習(xí)世界知識和建模非常有幫助。

但與此同時,預(yù)訓(xùn)練通常基于 Next Token 預(yù)測,這其實是一種行為克隆的形式。而行為克隆傳統(tǒng)上被認為存在一些難以規(guī)避的問題 —— 比如無論你用了多少數(shù)據(jù)、模型做得多大,它都很難真正建立起目標導(dǎo)向的推理能力。

因為壓縮只是盡可能復(fù)現(xiàn)已有內(nèi)容,而推理本質(zhì)上是要求模型能找到一條邏輯自洽、通向目標的因果鏈。因此,RL 應(yīng)運而生。

張祥雨還指出了未來這條范式的發(fā)展方向,他認為如何進一步擴展 RL,使其能夠接受自然語言反饋,而不僅僅是像數(shù)學(xué)、代碼這種確定性反饋很關(guān)鍵。

在張祥雨的分享中,我們捕捉到了一個非常重要且值得深思的技術(shù)范式拓展,那就是將強化學(xué)習(xí)進一步延伸到大規(guī)模預(yù)訓(xùn)練。特別是在推理階段(即 Test Time)使用強化學(xué)習(xí)來增強推理性能,這確實是一個非常具有啟發(fā)性的建議。

陳愷則強調(diào)了預(yù)訓(xùn)練的重要性。他表示,強化學(xué)習(xí)之所以能夠大放異彩,是因為它依賴于一個強大的冷啟動模型。過去,冷啟動模型可能依賴于預(yù)訓(xùn)練和監(jiān)督學(xué)習(xí)(SFT),但現(xiàn)在大家對預(yù)訓(xùn)練的重視程度逐漸提高。預(yù)訓(xùn)練為強化學(xué)習(xí)提供了一個良好的基礎(chǔ),使其能夠探索多種未來的可能性,從而發(fā)揮其應(yīng)有的作用。

陳愷進一步討論了強化學(xué)習(xí)未來面臨的挑戰(zhàn),即獎勵或反饋機制的問題。這個問題將成為強化學(xué)習(xí)進一步拓展到更多任務(wù)時的一個關(guān)鍵挑戰(zhàn)。目前,強化學(xué)習(xí)主要用于解決一些有明確答案的任務(wù),比如填空和問答題,但實際上,許多有效且有價值的任務(wù)并沒有唯一確定的答案(這和張祥雨的觀點類似)。因此,強化學(xué)習(xí)需要探索新的獎勵和反饋機制,這可能依賴于新的評價標準,或者通過與環(huán)境的實際交互反饋來形成獎勵體系。

此外,陳愷還表示強化學(xué)習(xí)也給基礎(chǔ)設(shè)施帶來了新的挑戰(zhàn)。盡管強化學(xué)習(xí)已經(jīng)取得了一些進展,但從效率上來看,仍然存在較大的提升空間。強化學(xué)習(xí)需要大量算力,且模型需要不斷進行探索和學(xué)習(xí)。如果未來強化學(xué)習(xí)開始依賴更多的交互反饋,這對基礎(chǔ)設(shè)施的要求將會更高,對相關(guān)技術(shù)和資源的挑戰(zhàn)也將更加嚴峻。

Transformer 架構(gòu)與非 Transformer 架構(gòu)

在整個模型研發(fā)過程中,訓(xùn)練范式是非常重要的一部分,而訓(xùn)練范式又依托于高效的模型架構(gòu)。

從 2017 年至今,Transformer 統(tǒng)治 AI 領(lǐng)域已經(jīng)八年之久。如果從 2019 年的 GPT-2 出發(fā),回顧至 2024–2025 年的 ChatGPT、 DeepSeek-V3 、LLaMA 4 等主流模型,不難發(fā)現(xiàn)一個有趣的現(xiàn)象:盡管模型能力不斷提升,但其整體架構(gòu)基本保持高度一致。

然而,隨著模型參數(shù)飆升至千億級、上下文窗口拉伸至百萬 Token,Transformer 的一些限制開始顯現(xiàn)。 比如,其最大的問題是自注意力機制的 O (n^2) 擴展性,當序列長度 n 增加時,計算量和內(nèi)存占用呈平方級增長。其次,注意力機制需要存儲大量中間結(jié)果和 KV 緩存,顯存很快被占滿;第三,Transformer 缺乏顯式的長期記憶機制,導(dǎo)致在需要多步推理或跨文檔對齊的任務(wù)上,小樣本泛化能力急劇下降。

對此,業(yè)界和學(xué)界開始新的探索,他們主要沿著兩條技術(shù)路線展開。

一是優(yōu)化現(xiàn)有 Transformer 架構(gòu),例如,位置編碼從最初的絕對位置發(fā)展為旋轉(zhuǎn)位置編碼(RoPE);注意力機制也從標準的多頭注意力逐步過渡為更高效的分組查詢注意力(Grouped-Query Attention),另外在激活函數(shù)方面,GELU 被更高效的 SwiGLU 所取代。

另一條則是跳出 Transformer,探索全新架構(gòu)范式。如 Mamba 系列通過狀態(tài)空間模型(SSM)實現(xiàn)線性復(fù)雜度的長序列建模,展現(xiàn)出比 Transformer 更優(yōu)的延遲性能與可控推理能力;RetNet、RWKV 等結(jié)構(gòu)則融合了 RNN 的記憶優(yōu)勢與 Transformer 的并行性,力圖找到效率與能力的最優(yōu)平衡點。

值得注意的是,當前的大模型架構(gòu)發(fā)展也呈現(xiàn)出混合設(shè)計趨勢,如由 AI21 Labs 推出的 Jamba 就是混合架構(gòu)典型,其結(jié)合了經(jīng)典的 Transformer 模塊和 Mamba 模塊。

年初發(fā)布的 DeepSeek V3 表明,即使是優(yōu)化現(xiàn)有 Transformer 架構(gòu),也可以大幅度降低模型訓(xùn)練和推理成本。這就帶來一個值得深思的問題:我們是基于 Transformer 架構(gòu)進行創(chuàng)新?還是開發(fā)非 Transformer 架構(gòu)?

對于這一問題,張祥雨表示,模型架構(gòu)并不是最重要的決定因素,架構(gòu)是為系統(tǒng)和算法服務(wù)的。Transformer 架構(gòu)沒有問題。現(xiàn)在流傳下來的仍然是最經(jīng)典的 Transformer 架構(gòu)。

但現(xiàn)在的問題是,算法開始向 RL 遷移,而我們的應(yīng)用場景也從推理時代向智能體時代轉(zhuǎn)變。而智能體最重要的特性是自主性,它必須能夠主動與環(huán)境交互,并從環(huán)境中進行學(xué)習(xí)。

這就意味著,我們的模型架構(gòu)需要具備類似人類的能力,能夠建模一種無限流或無限上下文的能力。因此,張祥雨認為,(在智能體時代)傳統(tǒng)模式已經(jīng)遇到了阻礙,像是傳統(tǒng)的 RNN 架構(gòu),未來短時間內(nèi)可能會重新成為下一代主流架構(gòu)的設(shè)計考慮之一。

真實數(shù)據(jù)與合成數(shù)據(jù)之爭

但我們不可忽視的是,大模型的背后,還有數(shù)據(jù)。過去,AlexNet 及其后續(xù)工作解鎖了 ImageNet,Transformer 的興起解鎖了海量的互聯(lián)網(wǎng)數(shù)據(jù)。然而今天,我們正面臨一個殘酷現(xiàn)實:高質(zhì)量語料正在趨于枯竭。隨著已被爬取的內(nèi)容越來越多,邊際新增的優(yōu)質(zhì)數(shù)據(jù)正在減少。

有研究預(yù)計,如果 LLM 保持現(xiàn)在的發(fā)展勢頭,預(yù)計在 2028 年左右,已有的數(shù)據(jù)儲量將被全部利用完。屆時,基于大數(shù)據(jù)的大模型的發(fā)展將可能放緩甚至陷入停滯。與此同時,擁有版權(quán)、隱私等限制的數(shù)據(jù),更是加劇了垂直領(lǐng)域的發(fā)展。

圖源:來自論文《Will we run out of data? Limits of LLM scaling based on human-generated data》

在此背景下,合成數(shù)據(jù)被寄予厚望,國內(nèi)外很多公司開始采用這種方式。比如 Anthropic 首席執(zhí)行官 Dario Amodei 曾經(jīng)表示,對于高質(zhì)量數(shù)據(jù)耗盡的困境,Anthropic 正在嘗試模型合成數(shù)據(jù)的方法,也就是使用模型生成更多已有類型的數(shù)據(jù)。這一策略也在 OpenAI、meta、Google DeepMind 等公司的新一代模型訓(xùn)練中被廣泛應(yīng)用。

然而,合成數(shù)據(jù)在一定程度上緩解了數(shù)據(jù)難題,但它本身也引發(fā)了一系列新的挑戰(zhàn)與隱憂。2024 年登上《自然》封面的一項研究認為如果放任大模型用生成的數(shù)據(jù)進行訓(xùn)練,AI 可能會崩潰,在短短幾代內(nèi)將原始內(nèi)容迭代成無法挽回的胡言亂語。

一邊是高質(zhì)量數(shù)據(jù)資源日漸枯竭,另一邊則是對合成數(shù)據(jù)的高度依賴與不確定性并存。

這種擔憂,也發(fā)生在英偉達內(nèi)部。Neil Trevett 表示,英偉達在圖形生成和物理仿真方面也面臨數(shù)據(jù)困擾的問題,尤其是那些無法獲取、獲取成本高、涉及倫理風(fēng)險或隱私問題的數(shù)據(jù)。

圓桌現(xiàn)場,Neil Trevett 給出了英偉達的一個解決思路,利用物理仿真生成模擬場景,用來訓(xùn)練大模型。這種方式尤其適用于構(gòu)造一些在真實世界中難以采集的邊緣案例,比如交通事故場景,或者機器人遇到異常情況時的應(yīng)對。

不過,Neil Trevett 也強調(diào):不能完全依賴合成數(shù)據(jù)。用于合成數(shù)據(jù)的生成模型本身可能存在偏差、誤差或盲區(qū),因此需要建立真實世界的驗證機制和反饋閉環(huán),比如通過 human-in-the-loop 的方式,來輔助驗證訓(xùn)練效果是否真實可用。Neil Trevett 還給出了幾個非常有前景的技術(shù)路徑,包括自監(jiān)督學(xué)習(xí)、主動學(xué)習(xí)、混合式訓(xùn)練流程等。

王紹蘭則給出了不一樣的觀點,他認為對于預(yù)訓(xùn)練而言,大家常提到的互聯(lián)網(wǎng)數(shù)據(jù)耗盡,其實是一個量的問題,可能更關(guān)鍵的是質(zhì)的問題。也就是說,當初大模型所依賴的大量互聯(lián)網(wǎng)數(shù)據(jù),它們的質(zhì)量是否真的足夠好?這需要重新審視。接下來應(yīng)該是進一步提升預(yù)訓(xùn)練數(shù)據(jù)中的質(zhì)量。

王紹蘭還提到所謂數(shù)據(jù)耗盡并不像大家說的那樣夸張,原因是行業(yè)數(shù)據(jù)還沉淀在行業(yè)中,沒有被用來訓(xùn)練模型。因此大模型想要落地到行業(yè)中去,必須用行業(yè)數(shù)據(jù)進行預(yù)訓(xùn)練。

關(guān)于合成數(shù)據(jù)問題,王紹蘭認為隨著大模型場景的不斷擴展,一些場景數(shù)據(jù)是極其稀缺的,甚至是完全不存在的。因此,只能依賴合成數(shù)據(jù)和仿真環(huán)境來補足。

然而,這種做法會帶來一系列挑戰(zhàn),如果仿真不夠真實,那么生成的數(shù)據(jù)也會存在偏差,最終會影響模型訓(xùn)練效果。因此,我們不能把合成數(shù)據(jù)看作一個萬能鑰匙,它有價值,但不能解決一切問題,背后仍有大量工程上的挑戰(zhàn)需要克服。

最后,王紹蘭還建議:對于行業(yè)中非敏感、非涉密的關(guān)鍵數(shù)據(jù),應(yīng)當考慮在行業(yè)內(nèi)部建立數(shù)據(jù)共享機制或聯(lián)盟組織,共同挖掘、整理這些數(shù)據(jù),為大模型在各類實際場景中的應(yīng)用提供更可靠的「彈藥庫」。這一建議一發(fā)出,現(xiàn)場掌聲不斷。

基礎(chǔ)模型與 Agent 向左向右

從來不是一道單選題

進入到 2025 年,我們可以觀察到一個很明顯的趨勢,基礎(chǔ)模型的研發(fā)速度逐漸放緩,而以 Agent 為代表的應(yīng)用成為了爆點。國內(nèi)外廠商陸續(xù)推出了自動化執(zhí)行任務(wù)的 Agent 產(chǎn)品,比如 OpenAI 推出的 Operator、深度研究以及 ChatGPT agent、智譜 AI 推出的 AutoGLM 沉思等。

這正是隨著大模型進入到應(yīng)用深水區(qū)以來,行業(yè)內(nèi)加速構(gòu)建商業(yè)閉環(huán)并著眼產(chǎn)業(yè)落地的真實寫照。同時,對于一些以 AGI 為終極目標的廠商來說,基礎(chǔ)模型的研發(fā)同樣不會停滯。如何平衡基礎(chǔ)模型投入與應(yīng)用落地之間的關(guān)系,成為廠商在戰(zhàn)略決策層面的核心議題。

智譜在持續(xù)迭代基座大模型 GLM 系列,覆蓋語言模型、多模態(tài)模型等的同時,也積極推動大模型在各行各業(yè)的落地。面對這種雙軌布局是否太分散精力的疑問,王紹蘭表示兩者并不沖突。

一方面,基礎(chǔ)模型仍處于快速演進的階段,行業(yè)普遍對當前模型成果感到振奮,但距離 AGI 的目標仍有較大差距。如果類比自動駕駛的分級,當前大模型大致處于 L3 階段,僅完成了預(yù)訓(xùn)練、對齊與基礎(chǔ)推理,并剛剛進入到了具備反思與沉思能力的深度推理階段。未來仍需要繼續(xù)進化,即使是 OpenAI 即將發(fā)布的 GPT-5,與 AGI 仍有距離。他認為,包括智譜在內(nèi),對基礎(chǔ)模型的探索將持續(xù)下去。

另一方面,王紹蘭也強調(diào),模型的價值不應(yīng)只停留在純理論研究層面。如果不展開模型的商業(yè)化落地,它們的價值就無從體現(xiàn)。大模型要「用起來」,直至變成生產(chǎn)力革命的那一天。如今,大模型正通過 Agent 等形態(tài)拓展自身應(yīng)用。同時在落地的過程中,各行各業(yè)的領(lǐng)軍企業(yè)和生態(tài)伙伴也要具備大模型思維,積極擁抱這場范式變革。

同樣地,第四范式在大模型落地方面也走在了行業(yè)前列,尤其是將 AI 技術(shù)應(yīng)用于金融等重點行業(yè)。對于如何平衡基礎(chǔ)模型的持續(xù)研發(fā)與行業(yè)應(yīng)用落地,陳雨強首先指出在技術(shù)發(fā)展極為迅速的當下,要保證自身在行業(yè)中的競爭力,其中最關(guān)鍵的是要用好已有的開源或閉源模型。

接著,陳雨強談到了基礎(chǔ)模型能力以及引發(fā)的數(shù)據(jù)問題。當前,已經(jīng)有超過 30% 的流量來自模型輸出而非傳統(tǒng)搜索引擎,這也導(dǎo)致面臨人為破壞數(shù)據(jù)等風(fēng)險。此外,用于評估大模型的工具(如 Arena)雖有價值,但也存在局限。很多普通用戶不關(guān)心答案是否真的正確,而是像不像好答案,這就導(dǎo)致排版精美的算法在輸出結(jié)果時得分更高,進一步加劇數(shù)據(jù)偏差問題。

最后,他提到,在企業(yè)落地中,尤其涉及金融等高敏感領(lǐng)域,仍存在諸多挑戰(zhàn)。比如在反欺詐場景,基礎(chǔ)大模型難以直接處理像每天十億用戶交易記錄這樣的大規(guī)模數(shù)據(jù)輸入。這意味著,大模型的落地要在基礎(chǔ)模型能力、數(shù)據(jù)質(zhì)量等多個層面持續(xù)進行技術(shù)突破。

開源模型即使非最強

也能鞭策整個行業(yè)進步

除了訓(xùn)練范式、架構(gòu)的持續(xù)進化以及解決數(shù)據(jù)瓶頸之外,開源與閉源同樣影響著大模型技術(shù)路徑的選擇、產(chǎn)業(yè)生態(tài)的構(gòu)建以及人工智能的格局。

一直以來,AI 領(lǐng)域便存在著開源與閉源兩大陣營。在國內(nèi)外頭部大模型廠商中,OpenAI 在 GPT-3 之后就完全轉(zhuǎn)向了閉源,而以 LLaMA、DeepSeek、Qwen、Kimi 等為代表的開源模型陣營,正不斷逼近甚至部分超越閉源大模型的性能表現(xiàn)。

其中,DeepSeek 的開源模型憑借其優(yōu)異的性能和極低的部署成本,迅速在全球范圍內(nèi)獲得了廣泛關(guān)注和應(yīng)用,甚至對以英偉達 GPU 和閉源模型為主導(dǎo)的傳統(tǒng) AI 產(chǎn)業(yè)鏈構(gòu)成了沖擊。可以預(yù)見,開源與閉源將在未來的 AI 生態(tài)中持續(xù)展開博弈。

陳愷從自己多年來的開源領(lǐng)域經(jīng)驗出發(fā),探討了開源如何在大模型時代產(chǎn)生深遠影響。就在昨天,他所在的上海人工智能實驗室開源了「書生」科學(xué)多模態(tài)大模型 Intern-S1,并基于此打造了「書生」科學(xué)發(fā)現(xiàn)平臺 Intern-Discovery。

在他看來,一方面,開源不僅重塑行業(yè)內(nèi)不同玩家之間的分工與資源投入方式,還推動了資源的更合理配置。另一方面,盡管開源模型未必是性能最強的,但它能夠有效避免重復(fù)投入,促使廠商專注于真正需要解決的問題。

更重要的是,對于行業(yè)內(nèi)仍在訓(xùn)練基礎(chǔ)模型并以 AGI 為終極目標的玩家來說,開源無疑形成一種實質(zhì)性壓力:如果閉源模型比不過開源成果,其存在價值可能就會受到質(zhì)疑。因此,開源不一定總能做到最好,卻能鞭策整個行業(yè)以更高效的方式持續(xù)演進。

而作為全球領(lǐng)先的芯片供應(yīng)商,英偉達高度重視并持續(xù)支持全球 AI 生態(tài)的發(fā)展,并投入很多。特別在開源方面,英偉達為開源大模型訓(xùn)練與部署提供了算力引擎,通過強大的芯片、好用的工具讓模型易用性更強。

Neil Trevett 表示,開源的力量毋庸置疑,如其他技術(shù)領(lǐng)域一樣,開源是推動 AI 行業(yè)前進的強大「工具」。然而,開源是否適合每家公司,需要他們根據(jù)自身成本效益和競爭策略來判斷,比如開源是否能節(jié)省成本、是否會削弱自身競爭優(yōu)勢等。因此,他認為,未來行業(yè)可能會走向開源與閉源結(jié)合的混合模式。

同時,開源也帶來了一些新挑戰(zhàn),比如模型分叉、碎片化和濫用,需要行業(yè)共同探索治理方式。Neil Trevett 堅信,隨著行業(yè)的發(fā)展,這些都會逐步得到解決。

至此,這場圓桌論壇畫上了圓滿的句號。從訓(xùn)練范式到架構(gòu)演進,從數(shù)據(jù)焦慮到開源閉源之爭,再到 Agent 落地與行業(yè)融合,這場由商湯承辦的「模型之問」圓桌論壇,展現(xiàn)了大模型時代最真實的技術(shù)分歧,也匯聚了業(yè)界最權(quán)威的思考。

這場硬核辯論,或許正是 AI 行業(yè)走向成熟的重要一步。

標簽: 模型 數(shù)據(jù) 行業(yè) 開源 能力 技術(shù) 問題 落地 基礎(chǔ) 架構(gòu) 范式 圓桌 王紹蘭 閉源 張祥雨 首席 科學(xué)家 機制 時代 人工智能 全球 場景 生態(tài) 智譜 廠商 大量 書生 論壇 陳愷 成本 序列 高質(zhì)

免責(zé)聲明:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其內(nèi)容真實性、完整性不作任何保證或承諾。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。

全站最新
久久国产精品久久久久久| 国产精品免费久久| 人妻熟女aⅴ一区二区三区汇编| 爱情岛论坛亚洲自拍| 欧美午夜在线观看| 精品国产乱码久久久久久闺蜜| 日韩在线观看免费全集电视剧网站| 日韩免费精品视频| 欧美男人的天堂| www国产黄色| 国产av自拍一区| 国产午夜福利片| 日韩成人精品视频| 亚洲国产高清aⅴ视频| 欧美精品日韩精品| 一区二区三区国产视频| 99精品在线直播| 北条麻妃在线观看| 黄大色黄女片18第一次| 草视频在线观看| 亚洲高清精品视频| 国产精品久久久久国产精品日日| 欧美一区二区三区免费在线看| 午夜精品福利在线观看| 欧美性色黄大片人与善| 真实乱偷全部视频| 最近日韩免费视频| 中文字幕亚洲一区二区三区| 91精品国产乱码久久久久久久久| 99精品在线免费| 欧美福利第一页| 97在线免费视频观看| 免费在线观看日韩| 妺妺窝人体色WWW精品| 精品国产青草久久久久96| 91色乱码一区二区三区| 欧美精品久久天天躁| 欧美亚洲一区在线| 欧美 国产 综合| 免费久久久一本精品久久区| 午夜久久福利视频| 亚洲男人的天堂在线视频| av电影在线观看不卡| 欧美一卡二卡在线观看| 91精品久久久久久| 在线观看视频你懂得| 中文字幕欧美人妻精品一区蜜臀| 国产欧美日韩视频在线观看| 亚洲天堂男人天堂女人天堂| 亚洲三区四区| 日本黄区免费视频观看| 精品国产亚洲一区二区麻豆| 亚洲一区二区五区| 久久久国产一区二区三区| 黄色小视频大全| 污软件在线观看| 不卡的av网站| 亚洲午夜av久久乱码| 亚洲人成人77777线观看| 国产jjizz一区二区三区视频| 亚洲av激情无码专区在线播放| 日韩欧美精品中文字幕| 国产精品久久久久久久久久久久久| 杨幂一区二区国产精品| 免费观看在线综合色| 日韩精品在线网站| 亚洲在线色站| 国产中文字字幕乱码无限| 日韩精品一二三| 高h调教冰块play男男双性文| 免费精品视频最新在线| 最好看的日本字幕mv视频大全| 视频一区视频二区视频| 日本最新高清不卡中文字幕| 萌白酱国产一区二区| 中文字幕资源在线观看| 老熟妇精品一区二区三区| 日本中文字幕一区二区视频| 欧美一级精品在线| 五月天久久狠狠| 精品无码一区二区三区蜜臀| 欧美国产精品专区| 国产69精品久久久久9| 中文字幕第21页| 国产在线观看免费视频今夜| 大尺度一区二区| 在线视频免费一区二区| 欧美在线性爱视频| 熟妇女人妻丰满少妇中文字幕| 看电视剧不卡顿的网站| 亚洲欧美日韩精品久久| 国产精品宾馆在线精品酒店| 日韩电影在线免费看| 亚洲国产精品嫩草影院久久| 日本中文字幕网址| 性欧美18一19性猛交| 欧美一级生活片| 午夜在线视频免费观看| 中日韩在线观看视频| 91精品免费在线| 中文字幕欧美日韩一区二区三区| av观看在线免费| 日韩一区二区免费视频| 国产三区在线视频| 久久精品免费| 久久综合色88| 欧美熟妇精品一区二区蜜桃视频| 日韩精彩视频| 日韩中文字幕一区二区| 高清一区在线观看| 波多野结衣a v在线| 在线成人性视频| 中文字幕中文字幕99| 97av视频在线观看| 午夜精品久久久久久久| 美女视频黄免费的亚洲男人天堂| 日本五十肥熟交尾| 99国产精品国产精品毛片| 国产欧美va欧美va香蕉在| 欧美xxxooo| 亚洲一区二区偷拍精品| 亚洲一区不卡在线| 人妻偷人精品一区二区三区| 欧美激情欧美激情| a毛片毛片av永久免费| 亚洲精品你懂的| 久久一区免费| 黄色一级大片在线免费看国产| 亚洲欧美成人在线| 日韩片在线观看| 亚洲图片欧美激情| 中文字幕成人一区| 亚洲 美腿 欧美 偷拍| 精品国产一区二区三区四区在线观看 | 欧美日本韩国一区| 91亚洲精品丁香在线观看| www.com亚洲| 欧美三级电影在线观看| 中文字幕超清在线免费观看| 久久久久久久久久美女| 高清国产午夜精品久久久久久| 天天看片中文字幕| 99国产精品欲| 欧美色电影在线| 最近中文字幕在线免费观看| 五月激情六月综合| 欧美日韩一级在线| 国产不卡视频在线观看| 91久久精品美女高潮| 免费视频久久久| 日韩成人av网| 国产人妻大战黑人20p| 色综合久久天天综合网| 各处沟厕大尺度偷拍女厕嘘嘘| 99久久精品免费看国产免费软件| 亚洲精品欧美一区二区三区| 国产精品欧美久久久久天天影视| 国产婷婷成人久久av免费高清 | 色综合久久天天综合网| 国产综合免费视频| 久久综合成人精品亚洲另类欧美 | 日韩xxx视频| 在线播放亚洲激情| 老司机福利在线观看| 欧美精三区欧美精三区| 婷婷激情小说网| 欧美午夜精品久久久久久人妖| caopor在线视频| 一区二区三区四区在线播放 | 欧美精品vⅰdeose4hd| 精产国品一二三区| 欧美性色19p| 日韩一级高清毛片| 999在线精品视频| 亚洲av成人精品日韩在线播放| 国产麻豆成人精品| 美女少妇精品视频| 丝袜美腿玉足3d专区一区| 色婷婷久久综合中文久久蜜桃av| 亚洲欧美精品一区二区| 国产成人精品av久久| 欧美无砖砖区免费| 日韩欧美国产综合在线| 99免费精品视频| 99国产在线视频| 2024国产精品视频| 亚洲奶大毛多的老太婆| 国产传媒在线看| 欧美少妇bbb| 欧美日韩一区二区区别是什么 | 久久久久久久免费视频了| 日韩 欧美 自拍| 国产精品久久影院| 欧美国产日韩在线播放| 欧美午夜xxx| 五月婷婷综合在线观看| 天天色综合成人网| 国产精品igao| 婷婷六月综合网| 在线观看亚洲免费视频| 欧美一区二区久久| 美国精品一区二区| 亚洲欧美日本精品| 91av在线看| 天天干天天插天天操| 在线国产电影不卡| 亚洲一区二区在线免费观看| 国产酒店精品激情| 亚洲精品中文字幕有码专区| 一区二区三区亚洲视频| 精品在线不卡| 日本一区二区三区久久久久久久久不 | 日本黄色一级网站| 午夜不卡av免费| 艳妇乳肉亭妇荡乳av| 亚洲欧美另类人妖| 无码人妻精品一区二区蜜桃色欲| 97国产一区二区精品久久呦| 一级片免费网站| 91久久精品美女| 国产成人综合视频| 国产九九九九九| 色综合天天天天做夜夜夜夜做| 手机免费观看av| 欧美成年人网站| 黄频网站在线观看| 欧美精品一区二区三区四区五区 | 亚洲激情六月丁香| 在线观看亚洲免费视频| 怡红院精品视频| 精品国产亚洲一区二区麻豆| 欧美日韩国产另类一区| 国产精品第一页在线观看| 久久免费福利视频| 国产亚洲欧美久久久久| 欧美变态口味重另类| 182午夜视频| 亚洲第一色中文字幕| 99这里有精品视频| av黄色在线网站| 日韩免费成人网| 中文字幕制服诱惑| 欧美一区二区三区四区夜夜大片 | 91福利免费观看| 欧美一级午夜免费电影| 日批视频免费在线观看| 成人在线视频电影| 亚洲一区二区视频| 99热99这里只有精品| 国产精品一区二区电影| 国产色产综合色产在线视频| 噜噜噜在线视频| 国产成人精品av| 久久精品国产999大香线蕉| 一级黄色免费在线观看| 色婷婷综合久久久中文一区二区| 日本少妇吞精囗交| 国产精品国产亚洲精品看不卡15| 亚洲国产精品嫩草影院| 日韩欧美一级视频| 另类小说综合网| 欧美三级蜜桃2在线观看| 中文字幕乱码中文字幕| 亚洲欧洲另类精品久久综合| 欧美高清dvd| 亚洲av无码乱码国产麻豆 | 国产免费无码一区二区| 欧美性受xxxx黑人xyx性爽| 亚洲大尺度在线观看| 91精品国产免费| 激情深爱一区二区| 日韩三级视频在线| 日韩在线观看a| 国产精品久久久久久久久久久新郎 | 国产视频精品免费播放| 色丁香婷婷综合久久| 无码aⅴ精品一区二区三区浪潮 | 97超碰人人草| 一区二区三区免费看| 日韩精品一区二区三区中文精品| 黄色福利在线观看| 男女污污视频网站| 国产精品福利久久久| 最新高清无码专区| 最新一区二区三区| 成人免费淫片视频软件| 最新不卡av在线| 日韩精品电影一区二区三区| 国产精品第一视频| 亚洲视频一区二区在线| 国产又粗又猛又色| 欧美亚洲第一页| 国产精品热久久久久夜色精品三区 | 狠狠干一区二区| 日韩在线中文字| 久久中文欧美| 中文字幕欧美色图| 国产精品theporn动漫| 成年人免费观看视频网站| 亚洲女人毛片| 国产精品久久久久久亚洲调教| 日韩精品在线观| 国产另类ts人妖一区二区| 久久久久女人精品毛片九一 | 欧美片一区二区| 亚洲精品美女久久7777777| 亚洲四色影视在线观看| 91污在线观看| 日韩在线视频免费播放| 欧美激情国产精品日韩| 国产欧美久久久久久| 欧美日韩在线免费视频| 日本在线播放一区二区三区| 日本免费网站视频| 视色,视色影院,视色影库,视色网| 久久成人精品视频| 亚洲一区在线视频观看| 老司机久久99久久精品播放免费| 国产精品一二三区在线观看| 特级毛片在线免费观看| 久久久久久高潮国产精品视| 欧美日韩在线一区| 日韩黄色小视频| 黄色免费一级视频| 中文字幕の友人北条麻妃| 欧美一区二区三区性视频| 精品国产乱码一区二区三| 欧美高清性xxxx| 手机福利在线视频| 91精品国产综合久久久久久久 | 国产精品成人无码| 亚洲国产一二三精品无码| 久久久久久久久久网| 欧美日韩一区二区区别是什么| 三级视频网站在线观看| 熟女俱乐部一区二区| 亚洲三级视频网站| 精品少妇无遮挡毛片| 在线免费黄色小视频| 国产精品嫩草69影院| 色综合五月天导航| 国产肉丝袜一区二区| 亚洲欧美另类综合| 国产传媒免费在线观看| 成人手机在线播放| 日韩av高清不卡| 日韩欧美一级特黄在线播放| 国产精品电影一区二区三区| 无码精品一区二区三区在线| 亚洲精品成人av久久| 亚洲色图 在线视频| 亚洲乱码国产乱码精品天美传媒| 日韩免费在线播放| 亚洲欧美另类国产| 91久久精品国产91性色tv| 91丨九色丨蝌蚪丨老版| 动漫av一区二区三区| 在线看成人av| 中国1级黄色片| 亚洲一级片免费观看| www.亚洲视频.com| 国内精品国语自产拍在线观看| 欧美在线视频网站| 一区二区日韩精品| 欧美久久婷婷综合色| 亚洲国产一区二区视频| 国产白丝精品91爽爽久久| 超碰在线观看99| 成人免费毛片xxx| 久久久精品人妻一区二区三区| 老太脱裤子让老头玩xxxxx| 热re99久久精品国产99热| 91精品在线国产| 精品粉嫩超白一线天av| 日本高清不卡在线| 亚洲图片小说在线| 在线免费观看成年人视频| 波多野结衣家庭教师视频| 好看的日韩精品| 91看片在线免费观看| 免费在线观看亚洲| 久久久综合激的五月天| 亚洲国产精品国自产拍av秋霞| 不卡视频一区二区三区| 国产二级一片内射视频播放 | 国产福利视频在线播放| 久久综合色综合| 91偷拍与自偷拍精品| 国产午夜精品全部视频播放| 在线日韩av永久免费观看| 亚洲精品国产精品国自| 国产很黄免费观看久久| 欧美成人三级在线| 欧美成人蜜桃| 神马午夜伦理影院| 91久久国语露脸精品国产高跟| 一区二区在线看| 91国内精品久久| 性活交片大全免费看| 粉嫩av一区二区三区粉嫩 | 午夜在线电影亚洲一区| 国产精品福利无圣光在线一区| 国产三级国产精品国产专区50| 国精产品一品二品国精品69xx| 91精品国产入口| 在线观看17c| 久久久夜夜夜| 欧美精品成人在线| 久久综合亚洲色hezyo国产| 色综合久久综合中文综合网|