7月26日,2025世界人工智能大會(WAIC)正式開幕。圖靈獎得主、諾獎得主、“AI教父”杰弗里·辛頓(Geoffrey Hinton)發表主題演講再談AI(人工智能)安全。
![]()
杰弗里·辛頓(Geoffrey Hinton)
辛頓表示,人類理解語言的方式實際上很像大語言模型,因此人類實際上很像大語言模型,也會產生幻覺,經常編造東西,特別是當他們試圖回憶很久以前發生的事情時。但他也指出,大語言模型與人類非常不同且優于人類的是,計算機科學的一個基本原則是,該將軟件與硬件分開,正是這一點讓人們可以在不同的硬件上運行相同的程序,它使得計算機科學能夠成為一個獨立于電氣工程的領域,如果你做到了這一點,那么程序中包含的知識就是“不朽的”。
辛頓進一步解釋稱:“如果你能把程序保存在某處,或者能把神經網絡的權重存儲在某個地方,那么你現在就可以銷毀運行神經網絡的所有硬件。只要你有權重存儲在某個地方,你現在就可以建造新的硬件,并且因為計算是數字化的,你可以在這些新硬件上運行完全相同的計算。所以在這個意義上,數字計算機的程序是‘不朽的’。”
辛頓同時指出,數字計算需要大量能量,但它使得擁有完全相同權重的智能體(Agent)能夠非常容易地共享它們從不同經驗中學到的東西,生物計算需要的能量要少得多,但共享學到的東西卻很困難。如果能源很便宜,數字計算就會好得多。
“這讓我非常擔憂,因為幾乎所有的專家都相信我們將制造出比我們更聰明的AI。我們如此習慣于作為頂尖智能,以至于很多人難以想象一個AI比我們更聰明的世界會是什么樣子……”辛頓表示,想知道非頂級智能體的感受?不妨問問雞的生存體驗。
辛頓認為,我們正在創造AI智能體是因為它們更擅長完成任務,這些AI智能體已經具備創造自己子目標的能力。而一旦擁有創造子目標的能力,智能體就會想做兩件事:一是生存,僅僅是為了能夠實現我們賦予它們的目標;二是更多的控制權,也僅僅是為了能夠實現我們賦予它們的目標。因此,人類將會擁有想要生存和想要更多控制權的智能體,“而且我們將無法簡單地關閉它們,它們會發現操縱使用它們的人非常容易,我們將像三歲小孩,而它們將像成年人,所以我認為那種當它們比我們更聰明時,我們就能讓某人把它們關掉的想法是不切實際的,它們將能夠操縱我們,并說服那個應該關掉它們的人不要那么做”。
辛頓將人類目前的處境比作養小老虎當寵物,小老虎非常可愛,能成為很好的寵物,但需要確保當它長大后它不想吃了你。“一般來說,養小老虎當寵物是個壞主意,有兩個選擇:想辦法訓練它讓它永遠不想吃了你,或者擺脫它。”辛頓表示,對于AI,我們沒有擺脫它的選項,AI對醫療保健、教育、氣候變化、新材料等太多事情都非常有用,能為幾乎所有行業提供幫助并使人類更具生產力。
辛頓表示,如果人類想要生存,必須找到辦法訓練AI,不要讓AI消滅人類。
辛頓指出,目前沒有一個國家希望AI接管,每個國家都希望人類繼續保持掌控權,如果任何一個國家找到了防止AI接管的方法,他們會非常樂意告訴所有其他國家。因此,他建議建立一個由AI安全研究所和協會組成的國際共同體,致力于研發訓練AI向善的技術,實現訓練AI向善所需的技術與訓練AI變得更聰明的技術,在某種程度上是分離的,讓一個真正聰明的AI不想接管世界,即使它比大多數人聰明得多,也非常樂意處于人類的輔助角色。
“我們目前根本不知道如何做到這一點,長遠來看,這是人類面臨的最重要的問題。好消息是,這是一個所有國家都應該能夠合作解決的問題。”辛頓最后如是說到。
本次世界人工智能大會以“智能時代 同球共濟”為主題,共規劃了超100場專業論壇,匯聚1200余位全球專家,12位圖靈獎、諾獎得主,大會將持續至7月28日。





京公網安備 11011402013531號