7月26日,2025世界人工智能大會(WAIC)在上海正式開幕。大會迎來了“AI教父”級別的重量級演講嘉賓--諾貝爾獎和圖靈獎得主杰弗里·辛頓(Geoffrey Hinton)。
![]()
這是辛頓首次訪問中國并進行演講。77歲的辛頓長期受腰椎間盤疾病的困擾,身體欠佳的他幾乎無法坐飛機。谷歌團隊曾為邀請他去英國考察DeepMind團隊特地包下私人飛機,并改造了座椅。
辛頓還在WAIC開幕前一天參加了第四屆人工智能國際安全對話(International Dialogues on Al Safety,IDAIS),并與20余名人工智能行業專家聯名簽署發布了《AI安全國際對話上海共識》。
在最新的演講中,他談及“數字智能是否會取代生物智能”的問題,并討論了AI可能帶來的挑戰與潛在的應對方法。辛頓此前已多次在公開信和演講中指出,當前AI系統已經具備自主學習和演化的潛能。
辛頓指出,在過去60多年里,AI發展存在兩種不同的范式和路徑--以符號型的邏輯性范式以及以生物為基礎的范式。1985年,辛頓做了一個小模型,嘗試結合這兩種理論,以解釋人們如何理解詞匯。
“我認為,如今的大語言模型就是我當年微型語言模型的衍生。”他表示,“它們使用更多詞作為輸入,采用更多層的神經元結構,由于需要處理大量模糊數字,學習特征之間也建立了更復雜的交互模式。但和我做的小模型一樣,大語言模型理解語言的方式與人類相似--基本邏輯是將語言轉化為特征,再以完美的方式整合這些特征。因此大語言模型和人類理解語言的方式相同,也會產生'幻覺'。”
在談及生物智能時,辛頓表示,幾乎所有專家都認為,人類會創造出比人類更智能的Al。“人類習慣了作為最智能的生物,很難想象AI超越人類的場景。”他說道,“我們創造的AI智能體已能幫我們完成任務,未來還會為了生存和完成目標而尋求更多控制權。”
在WAIC上,辛頓再次拿出他的經典比喻,他表示:“人類就像撫養幼小的虎崽,除非你能非常確定它長大后不會傷害你,否則你就應該擔心。”
辛頓認為,這種努力應該是全球性的。但他坦言,各國不會在防御AI 的危險用途上進行合作,他寄希望于國際社會在“預防AI統治世界”這一問題上達成一致,防止AI從人類手中奪走控制權。
“人類應當建立 AI 安全機構的國際社群,研究訓練AI向善的技巧。這就好比‘教導孩子成為一個好人’與‘讓他們變得更聰明’是兩碼事。”他表示。
辛頓提議,各國可在本國主權范圍內研究并分享成果(在允許的范圍內),全球或AI領導國家應思考建立相關網絡,研究如何訓練聰明的 AI 輔助人類而非消滅或統治人類。“這將是人類長期面臨的重要問題。”他說道。
辛頓從80年代開始就戰斗在人工智能的最前線,被視為深度學習領域的教父級人物。2012年,辛頓團隊開發的算法AlexNet,采用了一種名叫卷積神經網絡(Convolutional Neural Networks,簡稱CNN)的算法——這是人工智能領域是個極其高頻的詞匯,也是機器學習的一個重要分支。
辛頓是極少數很早就意識到GPU對深度學習巨大價值的人。相比谷歌貓用了16000顆CPU,AlexNet只用了4顆英偉達GPU,學術界和產業界徹底轟動,AlexNet的論文也成為計算機科學史上最有影響力的論文之一。
近年來,辛頓的研究重心逐漸轉向 AI 安全問題。他認為AI的發展速度已經遠超預期,其潛力和風險都不容忽視。2023年,辛頓離開谷歌公司后,他更加頻繁地公開發聲,表達對通用人工智能(AGI)未來影響的擔憂。
他此前曾估計,AI接管并摧毀人類文明的概率在10%至20%之間,并呼吁科技公司和政府投入更多資源進行AI安全研究。他建議,至少將三分之一的計算資源用于研究如何確保AI系統不會偏離人類意圖。他還批評一些大型科技公司為追求商業利益而游說放松監管,認為這是一種極其危險的趨勢。





京公網安備 11011402013531號