![]()
9月17日深夜,今年1月引發全球轟動的開源AI大模型DeepSeek-R1,在經過8個多月嚴格的同行評審之后,登上國際頂尖學術期刊《自然》雜志封面,成為全球首個經過同行評審的大語言模型。
此前,主流大模型通常采用一套不同于學術界的成果發布方式:開直播,在預印本網站和官方技術博客上發布突破性成果,同時在測評榜上拿下高分,以證明各自的技術優勢。年初,DeepSeek-R1的業界影響力也是由此而來。
近年來,人工智能,特別是大語言模型,正以驚人的速度和一種近乎“黑箱”的方式發展。此次,DeepSeek團隊在《自然》雜志上發表論文,無疑打破了行業慣例。對此,多位專家表示,此舉意味著“野蠻生長”的大模型正在向更為透明、可復現的方向發展,同時也意味著人工智能正努力融入更廣泛的科學社區,為AI與其他領域的融合打通更多壁壘。
影響力倒掛?發表生態在改變
這篇由梁文鋒擔任通訊作者的論文披露了DeepSeek-R1更多訓練細節,包括29.4萬美元的超低訓練成本,并正面回應了模型發布之初的蒸餾質疑。
實際上,這篇關于DeepSeek-R1的論文早今年1月就以預印本形式發表在arXiv平臺上。此次論文正式發表前,經歷了8名同行評審,并在他們的反饋下作了許多修改、完善和補充,論文的清晰度、可信度和完整度得到進一步提升。
自今年1月在全球最大開源AI社區Hugging Face發布以來,DeepSeek-R1模型已成為該平臺上下載量最高的復雜問題解決類模型。截至9月18日,R1模型的預印本論文也在短短8個多月中,獲得約3600次引用——在大模型領域,這是一個很高的引用數據。
“DeepSeek-R1用無限強化學習、獎懲制度來提升大模型的推理能力,在業界起到了引領風潮的作用。”在浙江大學本科生院院長、人工智能研究所所長吳飛教授看來,盡管8個月的同行評審使論文更趨完善,但其最具創新性的方法并沒有實質改變。
吳飛注意到,這8個月間,在某些任務表現上,有些大模型已超越DeepSeek-R1,但《自然》并未選擇發表那些成果,反而堅持發表這篇已在預印本平臺上發表過的論文,“這是前所未見的”。
過去,AlphaGo、AlphaFold等論文登上《自然》都是首發,而這篇首秀在arXiv上的論文不僅登上頂刊《自然》封面,編輯部還為此配發社論,這讓吳飛感覺到AI正在改變論文發表生態——或許未來全球影響力最高的20篇論文,可能最早發表于草根平臺。
AI需要加入更大“科學群聊”
在眾多業內人士看來,這次R1模型登上《自然》,除了肯定其學術價值,還標志著AI基礎模型正從一個靠技術博客和“打榜”為主要評價標準的領域,邁向以方法論的科學性、可復現性和嚴謹驗證為核心的成熟科學。
上海科技大學信息學院助理院長屠可偉教授告訴記者,期刊發表周期至少6-12個月,會議論文則需3-6個月,這樣的發表速度對AI來說太慢了。不過,在“誰都能往上發”的預印本平臺arXiv上,論文質量也的確良莠不齊。屠可偉認為,R1模型通過同行評審登上《自然》,更大的意義在于,讓AI獲得了更廣泛科學群體的關注。
《自然》雜志在同步發表的社論中表示,當前,那些正迅速改變人類知識獲取方式的主流大語言模型中,尚無任何一個經過研究期刊的獨立同行評審。嚴格的同行評審有助于清晰呈現大型語言模型的工作原理,并幫助評估其是否能實現宣稱的功能,有利于遏制人工智能行業的炒作現象。此次DeepSeek-R1打破行業慣例,讓大模型朝著提升透明度的方向邁出了可喜一步。
同時,同行評審還能增強研究的可信度,在不同群體中獲得更高認可度。此外,評審還會對模型的安全性、防護機制作出要求,將推動改善目前頗受關注的數據污染、固有偏見等問題。
屠可偉坦言,人工智能需要在更大范圍與其他學科領域加速融合,而實踐中面臨的最大挑戰就是學科隔閡,增進科學家與AI專家之間的交流極為必要。“此次R1模型登上《自然》,有助于讓AI融入更大的‘科學群聊’。”





京公網安備 11011402013531號