The Fever Dream of Imminent Superintelligence Is Finally Breaking
2025年9月3日

瑪麗亞馬夫羅普洛為《紐約時報(bào)》拍攝的插圖
本文作者馬庫斯先生是兩家人工智能公司的創(chuàng)始人,也是六本關(guān)于自然和人工智能書籍的作者。
OpenAI 最新的人工智能系統(tǒng) GPT-5 有望改變游戲規(guī)則,它是數(shù)十億美元投資和近三年研發(fā)的結(jié)晶。該公司首席執(zhí)行官 Sam Altman 暗示,GPT-5 可能相當(dāng)于通用人工智能(AGI)——一種與人類專家一樣聰明和靈活的人工智能。
相反,正如我所寫,該模型未能達(dá)到預(yù)期。發(fā)布后的幾個小時內(nèi),批評者就發(fā)現(xiàn)了各種令人困惑的錯誤:它無法解答一些簡單的數(shù)學(xué)問題,無法準(zhǔn)確計(jì)數(shù),有時還會對一些老謎語給出荒謬的答案。與其前輩一樣,該人工智能模型仍然會產(chǎn)生幻覺(盡管發(fā)生率較低),并且其可靠性也備受質(zhì)疑。盡管有些人對此印象深刻,但很少有人將其視為一次巨大的飛躍,也沒有人相信它是通用人工智能 (AGI)。許多用戶要求恢復(fù)舊模型。
GPT-5 向前邁進(jìn)了一步,但距離許多人預(yù)期的人工智能革命還相去甚遠(yuǎn)。對于那些在這項(xiàng)技術(shù)上投入巨資的公司和投資者來說,這無疑是個壞消息。這也要求政府重新審視那些建立在過高預(yù)期之上的政策和投資。當(dāng)前僅僅追求人工智能規(guī)模擴(kuò)張的戰(zhàn)略在科學(xué)、經(jīng)濟(jì)和政治層面都存在嚴(yán)重缺陷。從監(jiān)管到研究策略,許多方面都必須重新思考。其中的關(guān)鍵之一或許是以認(rèn)知科學(xué)為靈感,對人工智能進(jìn)行訓(xùn)練和開發(fā)。
從根本上來說,像奧特曼先生、Anthropic 首席執(zhí)行官達(dá)里奧阿莫迪 (Dario Amodei)以及無數(shù)其他科技領(lǐng)袖和投資者這樣的人,過于相信一種名為“擴(kuò)展”的推測性且未經(jīng)證實(shí)的假設(shè):即認(rèn)為使用越來越多的數(shù)據(jù)和越來越多的硬件來訓(xùn)練人工智能模型,最終將產(chǎn)生通用人工智能 (AGI),甚至是超越人類的超級智能。
然而,正如我在2022年的文章《深度學(xué)習(xí)正在遭遇瓶頸》中警告的那樣,所謂的縮放定律并非像引力那樣的宇宙物理定律,而是基于歷史趨勢的假設(shè)。GPT-5等系統(tǒng)所依賴的大型語言模型,只不過是強(qiáng)化版的統(tǒng)計(jì)反芻機(jī)器,因此它們將繼續(xù)在真相、幻覺和推理方面遇到問題。縮放并不能讓我們達(dá)到通用人工智能的圣杯。
科技界許多人對我的預(yù)測持?jǐn)硨B(tài)度。奧特曼先生嘲笑我是“平庸的深度學(xué)習(xí)懷疑論者”,并在去年聲稱“沒有墻”。埃隆馬斯克分享了一個表情包來諷刺我的文章。
現(xiàn)在看來我是對的。大型語言模型通過學(xué)習(xí)海量人類文本數(shù)據(jù)庫來訓(xùn)練生成文本,而向其中添加更多數(shù)據(jù)只能在一定程度上提升它們的性能。即使規(guī)模大幅擴(kuò)大,它們?nèi)匀粺o法完全理解所接觸到的概念——這就是為什么它們有時會答錯問題,或者生成極其錯誤的圖畫。
擴(kuò)展一度奏效;前幾代 GPT 模型與前代相比取得了令人矚目的進(jìn)步。但在過去的一年里,好運(yùn)開始耗盡。馬斯克先生于 7 月發(fā)布的 AI 系統(tǒng) Grok 4,其訓(xùn)練量是 Grok 2 的 100 倍,但只是略勝一籌。meta 的巨型 Llama 4 模型比其前代模型大得多,大多數(shù)人也將其視為失敗。正如許多人現(xiàn)在所看到的,GPT-5 明確表明,擴(kuò)展已失去動力。
通用人工智能 (AGI) 在 2027 年實(shí)現(xiàn)的可能性現(xiàn)在看來微乎其微。政府讓人工智能公司過著幾乎零監(jiān)管的幸福生活。現(xiàn)在,政府應(yīng)該制定立法,解決那些不公平地轉(zhuǎn)嫁給公眾的成本和危害——從虛假信息到深度偽造、人工智能低劣內(nèi)容、網(wǎng)絡(luò)犯罪、版權(quán)侵權(quán)、心理健康和能源消耗。
此外, 政府和投資者應(yīng)大力支持規(guī)模化以外的研究投資。認(rèn)知科學(xué)(包括心理學(xué)、兒童發(fā)展、心靈哲學(xué)和語言學(xué))告訴我們,智能不僅僅是統(tǒng)計(jì)上的模仿,還提出了三個有前景的思路,用于開發(fā)可靠到值得信賴、智能更加豐富的人工智能。
首先,人類不斷地構(gòu)建和維護(hù)著關(guān)于世界的內(nèi)部模型——或者說世界模型——關(guān)于他們周圍的人和事物以及事物運(yùn)作的方式。例如,當(dāng)你閱讀一本小說時,你會在腦海中形成一種數(shù)據(jù)庫,記錄每個角色是誰以及他或她代表什么。這可能包括角色的職業(yè)、他們之間的關(guān)系、他們的動機(jī)和目標(biāo)等等。在奇幻或科幻小說中,世界模型甚至可能包含新的物理定律。
生成式人工智能的許多缺陷都可以歸因于未能從訓(xùn)練數(shù)據(jù)中提取合適的世界模型。這解釋了為什么最新的大型語言模型無法完全理解國際象棋的運(yùn)作方式。因此,無論經(jīng)過多少場棋局訓(xùn)練,它們都傾向于走非法棋步。我們需要的系統(tǒng)不僅僅是模仿人類語言;我們需要能夠理解世界,從而進(jìn)行更深入推理的系統(tǒng)。如何構(gòu)建以世界模型為中心的新一代人工智能系統(tǒng)應(yīng)該成為研究的重點(diǎn)。谷歌DeepMind和李飛飛的世界實(shí)驗(yàn)室正在朝著這個方向邁進(jìn)。
其次,機(jī)器學(xué)習(xí)領(lǐng)域(它為大型語言模型提供了動力)喜歡讓人工智能系統(tǒng)通過從互聯(lián)網(wǎng)上抓取數(shù)據(jù),從零開始學(xué)習(xí)所有東西,沒有任何內(nèi)置機(jī)制。但正如史蒂芬平克、伊麗莎白斯佩爾克和我等認(rèn)知科學(xué)家所強(qiáng)調(diào)的那樣,人類思維天生就具備一些關(guān)于世界的核心知識,這些知識使我們能夠掌握更復(fù)雜的概念。構(gòu)建時間、空間和因果關(guān)系等基本概念,或許能讓系統(tǒng)更好地將遇到的數(shù)據(jù)組織成更豐富的起點(diǎn),從而可能帶來更豐富的結(jié)果。(Verses AI在電子游戲中對物理和感知理解的研究就是朝著這個方向邁出的一步。)
最后,當(dāng)前的范式采取了一種“一刀切”的方法,依賴單一的認(rèn)知機(jī)制——大型語言模型——來解決所有問題。但我們知道,人類思維會使用許多不同的工具來解決不同類型的問題。例如,著名心理學(xué)家丹尼爾卡尼曼認(rèn)為,人類會使用一種思維系統(tǒng)——這種系統(tǒng)快速、反射性和自動化,主要受經(jīng)驗(yàn)統(tǒng)計(jì)數(shù)據(jù)驅(qū)動,但比較膚淺且容易出錯——以及另一種系統(tǒng)——這種系統(tǒng)更多地受抽象推理和深思熟慮的驅(qū)動,但速度緩慢且費(fèi)力。大型語言模型與第一種系統(tǒng)有點(diǎn)像,它試圖用單一的統(tǒng)計(jì)方法解決所有問題,但結(jié)果卻不可靠。
我們需要一種更接近卡尼曼所描述的新方法。這種方法可能以神經(jīng)符號人工智能的形式出現(xiàn),它將統(tǒng)計(jì)驅(qū)動的神經(jīng)網(wǎng)絡(luò)(大型語言模型由此而來)與一些較老的符號人工智能理念連接起來。符號人工智能本質(zhì)上更抽象、更具審議性;它通過從邏輯、代數(shù)和計(jì)算機(jī)編程中獲取線索來處理信息。我一直主張將這兩種傳統(tǒng)結(jié)合起來。我們越來越多地看到像亞馬遜和谷歌 DeepMind這樣的公司采用這種混合方法。(甚至 OpenAI 似乎也在悄悄地做一些這方面的工作。)到 2020 年,神經(jīng)符號人工智能很可能會超越純粹的擴(kuò)展。
大型語言模型確實(shí)有其用途,尤其是在編碼、寫作和頭腦風(fēng)暴等人類仍然直接參與的領(lǐng)域。但無論我們將它們構(gòu)建得多么龐大,它們都從未值得我們信任。為了構(gòu)建我們真正值得信賴的人工智能,并有機(jī)會實(shí)現(xiàn)通用人工智能 (AGI),我們必須擺脫規(guī)模化的束縛。我們需要新的思路。回歸認(rèn)知科學(xué)或許是這條征程的下一個合乎邏輯的階段。
本文作者:加里馬庫斯是紐約大學(xué)名譽(yù)教授,曾任 Geometric Intelligence 創(chuàng)始人兼首席執(zhí)行官。他的最新著作是《馴服硅谷》。 他還出版了一本關(guān)于人工智能的簡報(bào)。





京公網(wǎng)安備 11011402013531號