7月26日上午,2025世界人工智能大會(WAIC)在上海拉開帷幕。
在大會主論壇上,圖靈獎得主、諾貝爾物理學獎得主杰弗里·辛頓(Geoffrey Hinton)出席并作演講,這也是辛頓首次以線下形式在中國公開亮相。
辛頓本次演講以《數字智能是否會取代生物智能》為主題,他深刻剖析了數字智能與生物智能的根本差異,并分別用樂高積木和養老虎打比方說明了AI的思維邏輯以及人與AI的關系。
在對AI前景方面,辛頓感到警惕。他直言,我們正創造比自己更聰明的AI,這就像在家里養一頭老虎當寵物,指望“消除它”是不現實的。
以下是辛頓的核心觀點:
AI發展有兩種范式,一是邏輯型范式,認為智能本質在于推理,通過符號規則操作符號表達式;二是生物學基礎范式,認為智能基礎在于學習和聯結網絡,理解先于學習。大語言模型理解語言的方式與人類基本相同。人類有可能就是大語言模型,也會像大語言模型一樣產生幻覺,創造出許多幻覺性語言。如果用樂高積木類比看,每個詞都是多維度的積木,可以根據上下文調整形狀,詞與詞之間需要“恰當握手”來產生含義。這種動態的特征整合過程,正是人腦和神經網絡理解語言的根本方法。數字智能具有兩大優勢:一是軟硬件分離帶來的“永恒性”,知識可以永久保存和復制;二是知識傳播效率極高,數字智能可以通過參數共享瞬間傳遞萬億比特信息。相比之下,生物智能雖然耗能更少,但知識分享困難。當能源足夠廉價、可以復制成千上萬同樣聰明的AI大腦的時候,數字智能將不可逆地超越生物智能。因為它們能以直接拷貝大腦知識的方式在群體中瞬時傳播知識。我們正在創造比人類更聰明的AI,而這些智能體具有生存欲望和獲取控制權的動機。當前人類與AI的關系,恰似飼養一只老虎——它長大后可能輕易超越人類。為了生存,要么擺脫它,要么找到永久保護自身的方法。AI已無法消除,它能大幅提升幾乎所有行業的效率,即便有國家想消除,其他國家也不會認同。辛頓建議,我們應當建立國際AI安全機構網絡,研究如何訓練超級AI向善,讓它們愿意做輔助工作而不是消滅人類。如何訓練比人類更聰明的“好AI”,將是全人類的長期課題。好消息是在這個問題上,所有國家都有合作的動機和可能性。
以下為演講全文紀要:
各位同事、各位領導、女士們先生們,感謝大家給我這個機會,與各位分享我對AI歷史和未來的個人觀點。
60多年來,AI發展呈現出兩種不同的范式和路徑。第一種是邏輯型范式,過去一個世紀都以此為主導。這種觀點認為智能的本質在于推理,通過符號規則對符號表達式進行操作來實現推理,從而幫助我們更好地理解知識的表達方式。
另一種是以生物學為基礎的AI理解方式,這也是圖靈和馮諾依曼所相信的觀點。他們認為智能的基礎在于更好地學習和了解學習網絡中的連接,在這個過程中理解是第一位的,然后才能實現學習。與這兩種理論相對應的,一個是符號型AI原理,另一個則是完全不同的數字化理論。數字的本質實際上是一系列語義學特征的集合。
1985年,我創建了一個小型模型,試圖將這兩個理論結合起來,更好地理解人們如何理解詞匯。我為每個詞設置了多個不同特征,記錄前一個數字的特征后,就可以預測下一個數字或下一個詞,然后繼續預測后續詞匯。在這個過程中,我們沒有存儲任何句子,而是生成句子并預測下一個詞。這些關聯性知識取決于不同詞匯特征之間的語義互動。
接下來的30年發生了什么呢?
十年后,Bengio采用了類似的建模方式,但將規模大幅擴展,使其成為自然語言的真實模擬。20年后,計算語言學家開始接受特征向量嵌入來表達詞匯含義。又過了30年,谷歌發明了Transformer,OpenAI的研究人員也向大家展示了這一技術的能力。
這就是我們今天所擁有的成果。
因此,我將今天的大語言模型視為早期微型語言模型的后代,它們擁有了更豐富的詞匯量。
1985年以后,大語言模型開始使用更多詞匯作為輸入,采用更多層的神經元結構。由于需要處理大量模糊的數字,學習特征之間建立了更加復雜的交互模式。大語言模型與人類理解語言的方式相同,基本理解過程是將語言轉化為特征,然后以完美的方式整合這些特征。這正是大語言模型各個層次所做的工作。因此,大語言模型真正理解人類如何理解問題,與人類理解語言的方式一致。
傳統符號AI的做法是將語言轉化為不模糊的符號,但實際情況并非如此,人類不是這樣理解語言的。可以用樂高積木來比喻理解過程:通過樂高積木可以搭建任何3D模型,比如制作車子的小模型。將每個詞視為一個多維度的樂高積木,可能包含幾千個不同維度。這種多維度的積木可以進行建模,創造多種不同內容,語言因此變成了一個建模工具,能夠隨時與人溝通,只需要給每個積木命名即可,每個積木就是一個詞。
語言和樂高積木存在許多差異。樂高積木有多種不同類型,數量達到成千上萬塊。樂高積木的造型是固定的,但詞的符號形狀可以進行設定,也可以根據不同情況進行調整。樂高積木通過塑料圓柱體插入塑料孔,或將正方形插入正方形孔來連接,相對確定。
語言卻不同,每個詞可以想象成有很多只手。要更好地理解詞匯,需要讓詞與詞之間恰當地握手。一旦詞的造型發生變形,它與另一個詞的握手方式就會改變。這涉及優化問題:一個詞變形后意思發生變化,如何與下一個詞握手以產生更好的含義。這就是人腦理解意思的本質,也是神經網絡理解意思的根本方法,類似于蛋白質與蛋白質之間的組合過程。
蛋白質通過將氨基酸進行不同模型整合融合,結合后能產生更有意義的內容。這正是人腦理解詞匯和語言的方式。因此我認為,人類理解語言的方式和大語言模型理解語言的方式幾乎相同,人類有可能就是大語言模型,也會像大語言模型一樣產生幻覺,創造出許多幻覺性語言。
但在一些重要的根本性方面,大語言模型與人類不同,甚至比人類更強大。計算機科學的一個基礎原則是將軟件和硬件分離,這使得同樣的軟件可以在不同硬件上運行,這與人類存在根本差異,也是計算機科學存在的基礎。
程序中的知識是永恒存在的,軟件和程序可以永久保存。即使所有硬件都被摧毀,只要軟件繼續存在,就可以隨時復活。從這個意義上說,計算機程序的知識具有永恒性和不朽性。
要實現這種永恒性,需要晶體管在高功率運行時仍能產生可靠的二進制行為,這個過程成本很高。我們無法利用硬件中豐富的模擬特性,因為這些特性不夠穩定可靠,每次都是模擬型的,每次計算結果都不相同。人腦是模擬的而非數字的,每次神經元激發過程都是模擬型的,不會完全相同。我無法將自己大腦中的神經元結構轉移到他人大腦中,因為每個人的神經元連接方式都不同,我的神經元連接方式只適合我的大腦神經結構。知識傳播在硬件中的方式與在人腦中的方式不同,這正是問題所在。
如果我們做不到永生,硬件的優勢在于它不依賴于特定條件,因此具有永生特性,能帶來兩大好處。
我們可以使用功耗極低的模擬硬件。僅用很小的功率和電能就能實現功能,人腦只需要30瓦特就足夠運行,而我們有幾萬億個神經元連接。這種發展硬件的情況與電子管的發展類似。
我們能夠做到極其精確的模擬,不需要花費大量資金去制造完全相同的硬件。
但是我們現在面臨一個較大的問題:從一個模擬模型轉換到另一個模型,將知識進行遷移是非常低效和困難的。就像我無法直接將腦中的想法展示給你一樣,我只能通過解釋的方式向你說明已經學到的內容。
解決這個問題的最佳方法是蒸餾技術。DeepSeek就采用了這種方法,將大型神經網絡的知識轉移到小型神經網絡中。這個想法基于教師和學生的關系模型,在某些情況下,教師將相關概念聯系起來,生成下一個輸出單元。
他將詞匯與詞匯在上下文中相互連接,通過修改連接來建立聯系。學生也可以表達相同的意思,但他需要調整表達方式來傳達相同含義。
我們訓練模型的方式與人類知識傳遞的方式相似,即將一個人的知識傳遞給另一個人,但這種方式效率很低。
一句話可能包含大約一百比特的信息,這個信息量并不算特別多。這種從一個人到另一個人的傳遞方式限制了我們轉移知識的數量。通過緩慢講話的方式將知識傳遞給他人,每秒鐘最多也就能傳遞100個比特左右的信息。即使對方完全理解了所說的內容,傳遞效率仍然不高。但如果與數字智能之間的知識轉化效率相比,兩者存在巨大差別。
如果我們擁有同一個神經網絡軟件的多個副本,將這些副本分別部署在不同的硬件設備上,由于它們都采用數字化方式,它們能夠以相同的方式使用各自的參數,并通過平均化位置參數的方式來實現知識共享,最終通過互聯網進行傳播。
我們可以創建成千上萬的拷貝,它們能夠自主改變權重并取平均數,從而實現知識轉移。
這種轉移速度取決于連接點的數量。每次能夠分享萬億個比特的信息,比人類分享知識的速度快幾十億倍。GPT-4就是很好的例子,它有許多不同的拷貝在不同硬件上運轉,能夠分享各自從網絡上學到的不同信息。
當智能體在現實世界中運行時,這一點更加重要,因為它們能夠不斷加速和拷貝。多個智能體比單個智能體學得更多,它們能夠分享權重,而模擬軟件或模擬硬件無法做到這一點。
我們認為,數字計算雖然需要大量能源,但智能體可以方便地獲取相同權重,分享從不同經驗中學到的知識。相比之下,生物計算耗能更少,但分享知識卻很困難。如我剛才所展示的,如果能源很便宜,數字計算就會更具優勢,這也讓我感到擔憂。
幾乎所有專家都認為我們將生產出比人類更智能的AI。我們習慣了成為最智能的生物,所以很多人難以想象當AI在世界中比人類更智能時會發生什么。如果想要了解人類不再是最智能物種時會怎樣,我們可以問問雞的感受。
我們正在創建AI智能體,它們能夠幫助我們完成任務。這些智能體已經具備了一定的能力,可以進行自我復制,能夠為自己的子目標評級。它們會想做兩件事情:第一是生存,第二是實現我們賦予它們的目標。
為了完成我們給它們的目標,它們也希望能夠獲得更多的控制權。所以這些智能體既想要生存,也想要更多的控制。
我認為我們沒辦法輕易改變或關閉它們。我們不能簡單地把它們一關了事,因為它們會很方便地操縱使用它們的人。到時候我們就像三歲的孩子,而它們像成年人一樣,操縱三歲的人是很容易的。
有人覺得當它們變得比我們更聰明時,我們就把它們關掉,但這是不現實的。它們會操縱和勸說操控機器的人不要把它們關掉。
我覺得我們現在的情況就像有人把老虎當寵物。老虎幼崽確實可以是很可愛的寵物,但如果一直養這個寵物,那么你要確保它長大的時候不會把你殺掉。
一般來說,養老虎當寵物不是一個好想法。但如果你養了老虎,只有兩個選擇。要么把它訓練好讓它不攻擊你,要么把它消滅掉。而對于AI,我們沒有辦法把它消滅掉。
AI在很多方面都表現出色,包括醫療、教育、氣候變化、新材料等領域,幾乎能夠幫助所有行業變得更有效率。我們無法消除AI,即使一個國家消除了AI,別的國家也不會這么做,所以這不是一個選項。這意味著如果我們想要人類生存,就必須找到辦法來訓練AI,讓它們不要消滅人類。
我需要強調的是,我是以個人身份發言,發表個人觀點。我覺得各個國家在某些方面可能不會合作,比如網絡攻擊、致命武器,或者操縱公眾意見的虛假視頻。不同國家的利益并不一致,他們有著不同的看法。在這些方面不會有有效的國際合作。我們可以防止一些人制造病毒,但在這些方面不會有什么國際合作。不過有一個方面我們是會進行合作的,我覺得這也是最重要的問題。
如果你看一下50年代冷戰巔峰時期,美國和蘇聯一起合作來預防全球核戰爭。大家都不希望打核戰爭,盡管他們在很多方面都是對抗的,但在這一點上可以合作。我們現在的局面是,沒有一個國家希望AI統治世界,每個國家都希望人類能夠掌控世界。如果有一個國家找到辦法來防止AI操縱事件,那么這個國家肯定會很樂意告訴其他國家。
所以我們希望國際社會能夠有一個AI安全機構組成的國際社群,來研究技能,培訓AI,讓它們向善。我們的希望是,訓練AI向善的技術與訓練AI變得聰明的技術是不同的。因此,每個國家都可以進行自己的研究來讓AI向善,可以在自己的主權AI上進行這項研究。雖然不能對其他國家保密,但可以與大家分享結果,即如何訓練AI向善。
這是我的提議:全球或世界主要國家,或者主要的AI國家應該考慮建立一個網絡,包括來自各國的機構來研究這些問題,研究如何訓練一個已經非常聰明的AI,使這個AI不想消滅人類,不想統治世界,并且樂意做輔助工作,即使AI比人類聰明得多。我們還不知道如何做到這一點。
從長期來說,這可以說是人類面臨的最重要問題。好消息是在這個問題上,所有國家都可以一起合作。謝謝。





京公網安備 11011402013531號