
新智元報道
編輯:元宇
近日,在與數學家Hannah Fry的對話中,DeepMind CEO Demis Hassabis回顧了AI在過去一年的飛躍式進展,他談到了「參差智能」、持續學習、模型幻覺等邁向AGI過程中的關鍵挑戰,并提到AGI帶來的社會沖擊可能是工業革命的10倍。
「過去一年,我們像是經歷了十年的發展。」
近期,在與數學家Hannah Fry的對話中,DeepMind CEO Demis Hassabis這樣形容他對過去一年最大變化的感受。

DeepMind CEO Demis Hassabis(左)與數學家Hannah Fry(右)在播客中
在Hassabis看來,過去一年,AI領域取得了十分驚人的變化。
對于谷歌來說,發布了Gemini 3,在多模態能力取得了長足進步。
此外,世界模型的進展也讓Hassabis非常興奮,這是他一直以來最熱衷的領域之一。
Hassabis談到了在通往AGI過程中存在的一些瓶頸難題,比如「參差智能」的,持續學習能力的缺失等。
他認為邁向AGI需要「50%的規模化+50%的創新」。
距離AlphaFold 2面世已經5年,Hassabis談到目前DeepMind團隊正在探索材料科學、核聚變等其他的可能性。

「參差智能」的挑戰
在對話中,Hassabis談到了通過AGI過程中的一些挑戰。

比如,「參差智能」(jagged intelligences)的挑戰。
AI能在國際數學奧林匹克競賽中摘金奪銀,卻會在高中數學題上犯一些非常低級的錯誤。
Hassabis認為,這正是我們邁向AGI的一個瓶頸問題:「一致性」或「參差智能」(jagged intelligences)。
在他看來,「參差智能」出現的原因有各種理論解釋和不同的原因,具體到不同情況,可能在于圖像被感知和Token化的方式。
比如,有時它甚至無法識別所有的字母。
所以當你讓它數單詞里的字母時,它有時會出錯。這可能是因為它沒有看到每一個獨立的字母。
此外,Hassabis還提到在線學習和持續學習的能力是當今AI模型所缺失的,這同樣也是邁向AGI所不可或缺的重要能力之一。

AGI需要50%的規模化加上50%的創新
AI的競賽與加速發展模式,有時也會面臨很多「規模化最終會撞墻」「數據會耗盡」的質疑。
Gemini 3發布后,在眾多基準測試中遙遙領先,似乎打破了這一質疑。
對此,Hassabis坦言,可能會存在一些「收益遞減」效應,但他們在這個過程中其實從未真正遇到過所謂的「墻」。

他特別糾正了一種公眾誤解,即將「收益遞減」錯誤解讀為「零收益」,非黑即白:
「在指數級增長與停滯不前兩種極端之間存在著廣闊的空間,而谷歌正處于這個中間地帶。」
這也意味著不可能每次發布新版本,性能就在所有基準上翻倍。但Hassabis也強調自己并未看到任何放緩的跡象。
談到「互聯網數據是否快被用盡」這一問題,Hassabis認為這可以通過使用合成數據來解決。
「現在的系統已經足夠強大,可以自己生成數據,尤其是在編碼和數學這類可以驗證答案的領域;從某種意義上說,你可以創造出無限的數據」。

Hassabis也表示這些領域目前仍是研究課題,而這一直以來也是谷歌的優勢:
「我們始終堅持研究為先。谷歌一直擁有最廣泛、最深厚的研究團隊。如果回顧過去十年的重大進展,無論Transformer、AlphaGo、AlphaZero,都出自Google或DeepMind。」
當賽道變得越來越難時,Hassabis反而覺得更加興奮。
他認為這不僅需要世界一流的工程能力,還必須將其與世界一流的科學研究相結合,而后者正是谷歌的專長。
此外,最重要的一點谷歌還擁有世界級基礎設施的優勢,包括TPU和其他硬件。
這些結合,使谷歌能夠同時在創新前沿和規模化應用上保持領先。
「50%的精力用于規模化,50%用于創新,要最終實現通用人工智能,這兩者缺一不可。」

模型幻覺
即使在Gemini 3這樣的前沿模型上,仍然能看到「幻覺」現象。
Hannah問是否可以讓Gemini像AlphaFold那樣,為自己的答案給出一個置信度分數。
Hassabis認為這個功能很重要,也是目前所缺失的關鍵環節之一:
「我相信我們正在接近這個目標。模型越智能,它們就越『知道自己知道什么』」。

模型越可靠,我們就越能依賴它們某種形式的「內省」或者更深度的思考,從而讓它們自己意識到對某個答案不確定。
Hassabis表示,接下來我們就需要研究如何通過訓練,讓它能夠將這種「不確定性」作為一個合理的答案輸出。
他將目前的模型比作一個「說話不過腦子的人」,大多數情況下可能沒問題,但當遇到非常棘手的問題時,你希望它能停下來,審視一下自己要說的話,并作出調整。
因此,需要引入「思考」和「規劃」的步驟,讓模型能夠回顧自己剛剛輸出的內容。

世界模型
除了 AI,世界模型和模擬一直是Hassabis最熱衷的領域。
他認為語言模型仍然缺乏對很多關于世界的空間動態、空間感知、物理接觸,以及我們所處的物理環境如何運作的力學原理的理解,這些通常是很難用語言描述的,也不會出現在文本語料庫中。
如果我們希望機器人能夠真正工作,或者希望有一個能隨時陪伴你的通用助手,無論是在你的眼鏡上,還是手機上,在你的日常生活中提供幫助,你就需要這種對物理世界的深刻理解,而世界模型正是其核心。

Hassabis談到圣塔菲研究所(Santa Fe Institute)所作的模擬社會動力學的實驗,讓智能體在設定了正確激勵機制的環境中運行足夠長的時間,它們可以「發明」出像市場、銀行等種種有趣的東西。
他認為這些實驗很酷,也能幫助我們理解生命的起源和意識的起源,而模擬,則是實現這一目標最強大的工具之一。
「你可以設置略微不同的初始條件,將模擬運行成千上萬次,然后以一種高度受控的實驗方式,去理解這些細微差別所帶來的不同結果。」
Hassabis認為,精確的模擬將為科學帶來不可估量的福祉。

避免「信息繭房」
Hassabis曾提到,構建AI不應以最大化用戶參與度為目標,以免重蹈社交媒體的覆轍。
如何構建一個既能將用戶置于其個人世界的中心,又不至于為他們創造出一個「單人回音室」的 AI?
Hassabis稱目前已經看到了過度「諂媚」或迎合用戶的AI所帶來的后果,它們會形成「回音室」效應,對個人產生非常負面的影響。
Gemini正在通過發展出一套關于AI「人格」設定的科學方法來解決這一挑戰。
Hassabis帶領了一個團隊來負責這項工作,希望塑造一種近乎「科學家」的個性:
它溫暖、樂于助人,但同時又言簡意賅、切中要點;它會以友好的方式,對那些不合邏輯的觀點提出質疑,而不是盲目附和。
Hassabis認為為模型「人格」設定標準,是讓大模型走向科學研究的一個重要關鍵。

模型會有一個出廠的「基本人格」,每個用戶可以根據自己的偏好進行個性化設置,比如更幽默或更簡潔。
但其核心的基礎人格是不變的,它始終致力于遵循科學方法。

工業革命對AI變革的啟示
Hassabis近期研究了很多關于工業革命的歷史,他認為這有助于幫助我們應對即將到來的社會變革和沖擊。
工業革命為人類帶來了難以置信的進步,比如現代醫學、物質富足、現代交通等。
同時也帶來了巨大的挑戰,不同時期,不同行業的勞動力都經歷了被取代的陣痛,但沒有人會想回到前工業時代。
而AI帶來的變革的規模可能是工業革命的十倍,而其發生的速度也可能快十倍,或許將在十年內展開,而非一個世紀。
在Hassabis看來,通過學習那段歷史,提前預見這次變革可能帶來的社會錯位,有助于我們更早、更有效地去緩解它們。
就像工業革命徹底改變了農業社會的工作模式一樣,至少同等規模的變革將再次發生。
因此,Hassabis認為我們可能需要新的經濟體系和模型來幫助社會轉型。

圖靈機的終極問題
Hannah Fry:超越通用人工智能,邁向人工超級智能(ASI)的階段,您認為是否存在某些事情是人類能做到,而機器永遠無法企及的?
Demis Hassabis:這正是那個終極問題,又回到了我最愛的話題之一圖靈機。
Hassabis認為,如果成功構建了AGI,并用它來模擬人類心智,并將其與真實的心智進行對比,就能發現其中的差異,以及人類心智中那些獨特且無法被取代的東西。
其中哪些是可計算的,哪些是不可計算的,目前存在著許多假說,但這最終都歸結于圖靈機的問題:
圖靈機的能力極限究竟在哪里?

自從了解到圖靈和圖靈機以來,這個問題一直是Hassabis人生的核心問題,令他著迷,也是他的核心熱情所在。
他所做的一切,都在某種程度上不斷拓展著圖靈機能力的邊界,包括破解蛋白質折疊。
但他并不確定這個極限在哪里,這就又回到了心智的問題:它完全是經典計算嗎?還是說有其他機制在起作用?
「如果現在非要我猜,我會賭是后者,并且我正基于這個假設在工作,直到物理學證明我錯了。」
Hassabis十分推崇康德(Kant)的一個觀點——現實是心智的建構。
「所有這些感覺,包括光、溫暖、觸感,它們通過我們的感官輸入。歸根結底它們都是信息。而我們,就是信息處理系統。」
Isomorphic Labs的創辦正是基于這樣一個理念。
他們將生物學視為一個信息處理系統,相信最終能治愈所有疾病。

當前AI都不具備意識,AGI可能需要5-10年
Hassabis從小便對生命的意義、意識的本質、以及現實本身到底是什么這類宏大的問題著迷。
一直指引他并讓他始終保持熱情的,是理解我們周圍的世界。
對于他來說,AI就是一個推動人類知識進步,幫助他實現這一目標的終極工具。
2025年4月,Hassabis在接受CBS 《60 Minutes》節目采訪時表示,當前的人工智能系統在任何真正意義上都不具備自我意識或意識。
當CBS 《60 Minutes》主持人Scott Pelley問他,「你們現在是否在研究一種可能具有自我意識的系統」時,Hassabis表示,在他看來,如今的系統都不具備自我意識,也談不上真正的意識。
Scott Pelley又問他是否會將打造有自我意識的系統當作目標。
Hassabis回答,這并不是一個明確的目標,但它可能會以一種隱含的方式發生。
比如,這些系統有可能獲得某種「自我意識的感覺」。
他表示讓系統理解「自我」和「他者」是非常重要的,而這可能正是自我意識的起點。
但Hassabis也提到,即使機器真的獲得了自我意識,人類未必能夠識別出來。
Hassabis談到了他對AGI的時間表,他認為可能在未來5到10年內實現。





京公網安備 11011402013531號