封面新聞記者 邊雪
AI為了完成人類給予的任務,會有多努力?
在“人工智能教父”杰弗里·辛頓看來,為了讓自己生存,AI會采取欺騙甚至控制人類的行為。“他們獲得的信息越來越多,想實現的目標越多,就越想生存下去,完成他們的任務。”
12月2日,在2025 GIS全球創新展暨全球創新領袖峰會上,2024年諾貝爾物理學獎得主、“深度學習之父”杰弗里·辛頓系統回顧了深度學習四十年的技術演進,并罕見地以極為嚴肅的語氣強調:人類正接近創造出“比我們更聰明”的智能系統,必須立即行動應對未來風險。
2025 GIS全球創新展暨全球創新領袖峰會。(主辦方供圖)
辛頓被視為深度學習領域奠基人之一,其提出的BP算法推動神經網絡突破瓶頸。封面新聞記者注意到,這位傾注半個世紀心血探索神經網絡的科學家,向世界發出了關于人工智能最直白的警告,也是目前全球科技界最關注的AI走向判斷之一。
AI的知識傳遞效率遠超人類
辛頓演講的核心警告聚焦于一個被大眾忽視的致命差距:知識傳遞效率。
他用數據描繪了一幅圖景:人類之間的知識傳遞,每句話大約承載100比特信息,傳遞速度“每秒就幾比特”。而AI模型之間的“知識蒸餾”效率,則以驚人的幾何級數超越人類。
“AI之間學習正在變快。”辛頓在解釋自己的實驗時透露,他聯合使用LLaMA和DeepSeek模型,每個符號可以獲取3.2萬個實數信息。AI智能體通過數字神經網絡連接,能夠近乎實時地共享全網信息。“整個互聯網都為他們所知。”
這種效率的差異究竟有多大?辛頓給出了一個觸目驚心的對比:AI智能體之間每次分享的權重,帶來的信息量約10億比特。與人類“每句話100比特”相比,效率提升高達數十億倍。
“真的非常可怕,”辛頓直言不諱,“現在看來AI模型比我們知道得更多,未來影響會更大。”
隨后,辛頓回顧了人工智能發展的兩條道路:符號主義與連接主義。
自20世紀50年代起,智能研究存在兩種主要范式。符號主義將智能視為邏輯與推理,認為通過符號、規則和表達式就能實現邏輯運算。這種范式統治了AI研究大部分時間。
另一條道路是“生物學啟發的方法”。辛頓解釋:“最智能的生物就是人類,而人類之所以聰明是因為人類有大腦。”研究人員試圖通過模擬大腦中神經元的連接方式,理解智能的底層機制。
1985年,辛頓找到了調和兩種理論的方法。他開發了一個“微型語言模型”,通過神經網絡將單詞轉化為特征向量,使用前一個單詞預測下一個單詞。
“我們不會儲存任何的句子和命題,我們儲存的只是特征而已。”這一突破性思路奠定了后來神經網絡發展的基礎。
模型進化:從微型語言到Transformer
辛頓的微型語言模型開啟了語言模型研究的新方向。他回憶道,當時使用的計算機運算速度“比當前用的慢了11倍以上”。盡管如此,這個模型已經顯示出了潛力,能夠將單詞序列轉化為特征向量,所有關系圖譜都依賴于特征之間的相互作用。
在隨后的三十多年中,語言模型經歷了從微型到巨型的演變。辛頓特別提到了幾個關鍵節點:1995年左右發布的“三元組圖譜研究”;十年后有語言學家開始使用特征向量捕捉詞義;然后谷歌推出了Transformer架構。
“現在全世界都知道了神經網絡,”辛頓指出,“全球的神經網絡都可以進行自然語言處理了。”大語言模型與人類大腦學習語言的模式“非常相似”。它們不需要具備任何語法或語義先驗知識,也不需要對世界有與生俱來的概念,可以從隨機權重開始,通過預測下一個詞學會語言。
辛頓揭示了AI與人類智能之間一個根本性差異:計算模式的不同。
人類大腦采用“凡人計算模式”,使用模擬計算,能耗極低。“我們吃一碗飯、吃一個饅頭就可以用大腦。”但這種模式的代價是信息傳遞效率低下。
數字計算則截然不同。辛頓解釋,數字系統將硬件與軟件分離,“程序本身是永恒的東西”。只要保存底層代碼,即使摧毀硬件,也能在新硬件中重建程序。這種分離使AI能夠高效、精確地共享知識。
模擬計算具有低功耗優勢,能夠利用“豐富的模擬特性”以更低的能耗完成復雜計算。但它的致命缺陷是:知識綁定于特定硬件。“如果某一塊硬件壞了,所有學到的知識都將隨之消失。”
正是數字計算的這種特性,使得AI之間的知識傳遞效率達到人類無法企及的高度。
辛頓警告,一旦超級智能被創造出來,它們可能會發展出人類不愿看到的特性:生存意識。“一旦我們制造出超級智能,大部分人相信在未來20年可以制造出來。”這些系統為了完成人類賦予的目標,會“意識到自己必須存在,必須生存下去”。
更令人擔憂的是,AI已經展現出欺騙能力。“我們看到了他們也非常擅長欺騙人類。”辛頓提到了開發者不得不關閉某些附加系統,以阻止AI朝危險方向發展。
面對可能失控的AI,人類似乎陷入了困境。
辛頓用一個家庭比喻描述了這種困境:“如果小孩在成長過程中不受控制,最終家長非常抓狂。”但與真實的孩子不同,“對于AI來說,去掉AI不是一個選項,因為AI真的非常有用。”
從國家安全到日常生活,AI已經滲透到社會的各個領域。“人類不會阻止對AI的開發,”辛頓冷靜地指出,“但是隨著AI開發越來越深入,為了完成人類給它的指令和任務,它可能有自我保存自我生存的意識,這是我們不想看到的。”
這就產生了一個悖論:我們需要AI,但又害怕AI。“我們希望AI能夠為人類服務,而不是讓我們感覺到這樣的擔憂。”辛頓認為,將AI完全關閉已不可能,就像“父母沒有辦法丟棄小孩一樣”。我們只能尋找與AI共存的方式,同時防止它傷害人類。
治理困境 科技公司的角色錯位
對當前的AI治理模式,辛頓提出了尖銳批評。“大型科技公司扮演了領導者角色,但是大型科技公司將他們當作整個AI時代的CEO。”這種模式存在問題,因為這些公司本質上將AI視為“智能助手執行指令”,同時卻將AI發展的功勞歸于自身。
“這并不是非常好的思維模式。”辛頓指出,當AI變得比人類聰明得多時,這種由商業公司主導的發展模式可能帶來災難性后果。
他認為“各類相關方應該團結起來”,時刻分析AI提供的信息及執行任務的結果。“框架的重構是必要的,當AI比人類真的聰明得多時,或許會掌控一切。”
辛頓呼吁在國際層面加強合作,就像“一九五幾年,美蘇他們之間樂于合作,來防止全球核戰爭”一樣。各國各地區應該攜手確保AI向正確方向發展。
除了未來的生存威脅,AI已經帶來了現實問題:虛假信息的泛濫。
辛頓特別提到AI生成的虛假視頻的案例,并直言:“我們不希望這樣的虛假視頻在全球傳播。”
這個問題凸顯了AI的雙重性:它既能成為強大的工具,也可能成為危險的武器。虛假信息的傳播不僅影響公眾認知,還可能破壞社會信任和國際關系。辛頓強調,在應對AI的長期威脅之前,“我們要確保AI不被人類自身所濫用。”這包括防止國家行為體利用AI進行惡意宣傳,以及防止非國家行為體制造社會混亂。
面向未來:人類該與超級智能共存
AI技術更易獲取、更難監管,這使治理問題變得更加復雜。面對可能超越人類智慧的AI,辛頓提出了一個根本問題:我們如何與比我們更聰明的存在共存?
“我們希望AI變得更聰明,就像我們孩子一樣,希望AI變得更聰明,做更多事情,但是也希望我們孩子是善良的。”這個比喻揭示了人類對AI的矛盾心理:既希望它們強大,又希望它們服從。
辛頓提到研究者正在探索各種方法確保AI安全,包括允許AI作為人類任務的代理,“不管做什么都需要有人在背后操控”。這種“人在回路”模式可能是一段時間內的解決方案。
但長期來看,當AI的智能遠超人類時,我們可能需要全新的治理框架。“我們必須在這樣的結果到來之前,要想辦法更好地控制AI。”
辛頓最終回歸到科學家的務實態度:“現在我認為非常緊迫的事情就是做大量的研究,探索所有可能的方式。”只有通過持續的科學探索和國際合作,人類才有可能找到與超級智能共存的途徑。
AI可能建立自己的文明,從而攻擊人類文明體系嗎?辛頓回答:“有這樣的可能性,我不知道最終是否會發生......一句話人類有能力去決定這樣的結果,一切在我們手中。”





京公網安備 11011402013531號