“AI教父”辛頓表示,現在的多模態AI(人工智能)聊天機器人在某種意義上“是有意識的”,各國應盡快分享讓AI“善良”的方法。
7月26日,2025世界人工智能大會(WAIC)正式開幕。在上午的開幕儀式上發表主題演講后,圖靈獎得主、諾獎得主、“AI教父”杰弗里·辛頓(Geoffrey Hinton)出席了下午的科學前沿全體論壇,與上海AI Lab主任周伯文展開一場尖峰對話。在現場,辛頓受到了全體觀眾的熱烈歡迎。
![]()
可以說AI“有意識”,各國應分享讓AI善良的方法
首先,周伯文詢問了辛頓對于“多模態和語言模型能發展出自己的主觀體驗”的觀點的解讀。辛頓表示,這嚴格來說并不是一個科學問題,而是取決于對“主觀體驗”或“意識”的定義,實際上,許多人對這些概念的理解存在系統性錯誤。
為解釋這一觀點,辛頓先談到了自己在1987年發表的論文《The Horizontal-Vertical Delusion》中的經典案例,他指出,許多人在描述水平與垂直的概念時雖然能夠正確區分,但在實際判斷中存在系統性混淆,忽視了“垂直”其實是一種非常特殊的方向。
將其類比到“模型是否有主觀意識”的論點,辛頓指出:“我認為,許多人對于‘主觀體驗(subjective experience)’這類術語的理解完全錯誤。他們的理論很有說服力,但完全錯誤。這并非一個科學問題,而是建立在一個錯誤的關于心理狀態的模型上,關于這些術語的運用。所以,我的觀點是,當今的多模態聊天機器人已經具有意識。”
在辛頓之前,2024圖靈獎得主、阿爾伯塔大學教授Richard Sutton也在會上發表了視頻演講,稱AI發展已進入一個模型能夠在真實環境中持續學習和積累經驗的新階段。
關于主觀體驗,辛頓進一步闡釋道,當AI以機器人等形式進入世界,它們就有了自己的“體驗”,可以從自己的經驗中學習:“我認為它們會有經驗,但經驗不是事物。而且經驗不像照片,經驗是你和一個物體之間的關系。”
關于AI安全,辛頓再次強調,讓AI“聰明”和“善良”是兩個截然不同的問題,為了實現這兩者,即使是同一個大模型也需要兩種訓練技術:“所以,國家應該分享讓模型善良的技術,即使他們不愿意分享讓模型聰明的技術。”
辛頓補充道,可能存在讓AI善良的通用訓練方法,但當AI變得越來越智能時,保證其善良的現有方法也可能失效,所以需要在這個方面進行大量研究。
建議年輕研究者“著眼于那些你認為所有人都做錯了的領域”
在對話中,辛頓還談到,自己獲得諾貝爾物理學獎是一個“錯誤”:“他們很想頒獎給AI領域,但沒有AI領域的諾貝爾獎,所以他們只能將物理學獎頒給AI(的科學家)。”
關于AI對其他領域科學發展的影響,辛頓認為,AI確實為科學做出了許多貢獻,最顯著的一個例子是醫藥領域的蛋白質折疊,相信AI今后也能為科學帶來更多突破。
最后,被問到對年輕研究者們的建議,辛頓表示,在進行原創研究時,要著眼于那些“認為其他所有人都做錯了”的領域:“通常在這種情況下,你會鉆研自己認為正確的更好的方法,并最終理解為什么其他人會那樣做、為什么你是錯的。但是,不要放棄,不要認為自己的方法很愚蠢,不要在意導師的意見,堅持自己的方法直到理解錯在哪里。而有時,當你堅持自己所相信的,結果是你沒有錯。這就是出現重大突破的地方。輕易放棄的人無法成功,你需要在其他人反對時堅持下去。”
辛頓補充道,有一種邏輯能夠支撐這一觀點:“你要么擁有好的直覺,要么擁有壞的直覺。如果你的直覺好,你當然應該堅持自己的直覺;如果你的直覺不好,那么做什么都無關緊要,所以你依然應該堅持自己的直覺。”
在當天上午的演講中,辛頓發表了一篇圍繞AI安全的主題演講。辛頓表示,人類實際上很像大語言模型。他將人類目前的處境比作養小老虎當寵物,如果人類想要生存,必須找到辦法訓練AI,不要讓AI消滅人類,讓一個真正聰明的AI不想接管世界:“我們目前根本不知道如何做到這一點,長遠來看,這是人類面臨的最重要的問題。好消息是,這是一個所有國家都應該能夠合作解決的問題。”
2024年10月8日,瑞典皇家科學院宣布,將2024年諾貝爾物理學獎授予美國普林斯頓大學的約翰·霍普菲爾德和加拿大多倫多大學的杰弗里·辛頓,以表彰他們“為推動利用人工神經網絡進行機器學習作出的基礎性發現和發明”。辛頓是卷積神經網絡理論的領軍人物,也被視為由ChatGPT掀起的本輪AI技術躍進背后的奠基性科學家,被譽為“AI教父”。
本次世界人工智能大會以“智能時代 同球共濟”為主題,共規劃了超100場專業論壇,匯聚1200余位全球專家,12位圖靈獎、諾獎得主,大會將持續至7月28日。





京公網安備 11011402013531號