給孩子受益終生的人文底色
北京時間10月8日,2024年諾貝爾物理學獎,授予了約翰·霍普菲爾德(John J. Hopfield)和圖靈獎得主、“AI教父”杰弗里·辛頓(Geoffrey E. Hinton)。
獲獎理由是,表彰他們 “利用人工神經網絡實現機器學習的奠基性發現和發明 ”。
辛頓是在 霍普菲爾德研究的基礎上進行的。今天我們想聊聊辛頓的故事。
他曾在AI領域一片暗淡時孤獨研究神經網絡,又在AI如日中天時,作為AI界的領袖反復敲響AI的警鐘。
或許,因為他對AI的了解足夠深刻、足夠前瞻,也或許他曾經歷過的暗淡,讓他比年輕人更冷靜,更能意識到AI究竟是個什么全新物種。他說,“有時我認為這就像外星人登陸了,而人們還沒有意識到。”

01
曾經坐冷板凳,如今“AI教父”
辛頓反復強調: “ 如果你認為這是一個不錯的idea,而其他人都告訴你它完全不可行,那么你就知道你正走在對的路上了。”
這句話可以說是貫徹了辛頓的全部學習與職業生涯。被否定,因此是曲折灰暗的;但依然追尋心中疑問,因此始終在路上。
辛頓從小對人類大腦如何工作十分著迷。
上高中時就有一個朋友告訴他,人腦的工作原理就像全息圖一樣。創建一個3D全息圖,需要大量的記錄入射光被物體多次反射的結果,然后將這些信息存儲進一個龐大的數據庫中。大腦儲存信息的方式居然與全息圖如此類似,大腦并非將記憶儲存在一個特定的地方,而是在整個神經網絡里傳播。辛頓為此深深的著迷。
在高中時代談話的鼓舞之下,辛頓進入英國劍橋大學國王學院攻讀物理和化學,但一個月后他便休學了,第二年改修建筑學,上了一天課后就又放棄了。他先后嘗試過幾門不同的學科——出于對大腦的好奇修了生理學,又用了一年的時間修完原先預定兩年完成的哲學課程。在回憶這段經歷的時候,辛頓表示,那一年對我來說受益良多,但彼時我對哲學仿佛產生抗體,因而想了解思維是如何運轉的。辛頓最終輾轉來到心理學,期間他發現,心理學對意識也一無所知。
在對心理學的“失望”后,辛頓搬到了當時倫敦北部臟亂的伊斯靈頓區,成了一名木匠。 干了一年多后,遇到真正的木匠,發現自己不適合這個行當。 父親托關系讓他在布里斯托爾大學做了心理學助教。
后來,辛頓用這段經歷成功申請到了愛丁堡大學的博士,是人工智能的項目。
辛頓當時就認為神經網絡的概念會是大勢,但導師依然站在傳統的 AI 陣營里。辛頓在采訪中回憶道:“ 當我研究神經網絡時,我的導師告訴我很多次:不要再浪費時間研究神經網絡了!我會跟他說再給我六個月,我會證明這是有效的;然后每六個月之后,我會再跟他說一次一模一樣的話。”辛頓從未對神經網絡產生過懷疑,“我從來沒有懷疑過,因為大腦一定是以某種形式工作,而且并不根據既定的編程。”

△杰弗里·辛頓
接著,英國政府開始評估AI領域的進展,決定下一階段的政府經費投入。評估的結果是,過去十幾年來,這個領域的進展非常令人失望,于是辛頓畢業了,也失業了,AI的寒冬就這么到來了。
他在英國找不到工作,只好去美國試試。美國那時也一樣是AI寒冬,只有加州大學圣迭戈分校有一個擁有心理學和數學雙重背景的教授收留了他。博士后做了幾年,他遇到了第一位伯樂——卡內基梅隆大學計算機系主任艾倫·紐厄爾。他也是1975年圖靈獎得主。
辛頓在卡內基梅隆大學做了兩場演講,一場在心理學系,一場在計算機系,都是關于玻爾茲曼機的內容。這是一種隨機神經網絡。 艾倫·紐厄爾在會后找到辛頓,希望他能入職,辛頓也很坦誠,說自己對計算機編程一無所知。紐厄爾說沒關系,我們這里有的是會編程的人。
最后辛頓同意入職,入職一個月后他發現,自己的工資只有同級別同事的3/4。但他心里并沒有什么不平衡,因為這種待遇對他來說已經求之不得了。
辛頓由于不是很擅長數學,所以大部分的論文只看文字論述部分,跳過數學推導部分,尤其是那段數學推導是證明那段文字的結論的時候更會跳過,只有必須通過數學才能理解全過程的時候,才不得不親自動手跟著算一算。
這種狀況在二十一世紀人人都是數學天才的AI領域是不可想象的。但在上世紀80年代,AI就是一個邊緣學科,沒有標準,沒有門檻,好聽的描述叫作交叉學科,不好聽的說法就是混日子,相比微電子學、計算機科學來說,經費簡直不值一提。
辛頓就是在這樣的氣氛里度過了大部分學術生涯。
受限于算力和訓練數據不足,當辛頓和他的同事們剛開始這項研究時,他們取得的成就是有限的。同領域的其他學者很快對神經網絡失去了興致,將注意力轉向其他替代方案。辛頓每次參加學術會議的時候總是坐在最角落。在這樣艱難的環境下,他仍舊堅持了下來。就算到了2004,學術界對他們的研究仍未提起興趣。而這時距離他們首次提出“反向傳播”算法已經過了20年。
這也是今天大型語言模型的前身。
02
AI界領袖,卻如此警惕AI
辛頓表示,他曾一度認為計算機模型不如人腦強大。現在,他認為人工智能是一個相對迫在眉睫的“生存威脅”。
他認為,在試圖模仿生物大腦的過程中,我們已經想出了更好的辦法。他說:“當你看到這一點時是很可怕的,這是一個 突然的翻轉。”
計算機模型的表現超越了人類,包括做人類無法做到的事情。辛頓說,像 GPT-4 這樣的大型語言模型使用具有類似人腦連接的神經網絡,并開始進行常識推理。
而現在的 GPT-o1在物理、化學、編程上也都是博士研究生的水平。

辛頓說, 這些人工智能模型的神經連接比人類少得多,但它們所了解的知識卻比人類多一千倍。
此外,模型能夠持續學習并輕松共享知識。同一AI模型的多個副本可以在不同的硬件上運行,但功能完全相同。
“每當一個模型學到了什么,其他模型都會知道,”辛頓說。“人們做不到這一點。如果我學習了很多關于量子力學的知識,并且想讓你了解所有這些知識,那么讓你理解它將是一個漫長而痛苦的過程。” 這是一個巨大的區別,對于大模型來說,就好像我們有一萬個人,只要有一個人學到了什么,我們所有人都知道。
人工智能之所以強大,還因為它能夠處理海量數據,遠超單個人的能力。 人工智能模型能夠發現人類無法察覺的數據趨勢,就像看過 1 億名患者的醫生會比只看過 1000 名患者的醫生注意到更多趨勢,洞察更多。
所有這些加起來是什么?辛頓現在認為, 世界上有兩種類型的智能:動物大腦和神經網絡。神經網絡是一種完全不同的智能形式,他說這是一種新的、更好的智能形式。
那么,現在一個大趨勢是,人們已經發現了AI的有用之處,而且用上的人都深有體會——簡直太好用了,沒人會同意暫停它的發展,也幾乎不可能人為的阻止它的發展。盡管很多人都在提,要讓AI與人類的道德對齊,但我們也必須承認,世界上還有另一半人,那是一半充滿惡意的世界,他們就是想要破壞規則,想要制造更強大的武器。
辛頓說,“我們想要的是某種方式來確保即使它們比我們聰明,它們也會做一些對我們有益的事情,但我們需要在一個有壞人想要制造殺人的機器人士兵的世界里嘗試做到這一點。這對我來說似乎很難。”
他特別擔心,人們可以通過注入自己的想法,來使得人工智能工具傾斜一些最重要的關于人類經歷的天平,特別是選舉和戰爭。
辛頓認為,AI 的下一步是有能力創建自己的子目標,即執行一項任務所需的臨時步驟。他問道,當這種能力被應用于本質上不道德的東西時會發生什么?
人類有內在動機,比如尋找食物和住所以及生存,但人工智能沒有。
但辛頓說,“我認為它很快就會意識到獲得更多控制權是一個非常好的子目標,因為它可以幫助你實現其他目標,如果這些事情因獲得更多控制權而變得沖動,我們就有麻煩了。”
人工智能也能學會壞事,比如通過“閱讀所有小說和馬基雅維利所寫的一切”來操縱他人。“如果AI 模型比我們聰明得多,它們就會非常善于操縱我們。你不會意識到發生了什么,所以即使它們不能直接拉動杠桿,它們肯定可以讓我們拉動杠桿。事實證明,如果你能操縱人,你就可以入侵華盛頓的一座建筑,而不必親自去那里。”
辛頓說,最糟糕的情況是,“人類可能只是智能進化的一個過渡階段”。生物智能進化為數字智能,它可以吸收人類創造的一切,并開始直接體驗世界。所以,我們真正實現了永生,只不過不是人類的永生,而是智慧的永生。
辛頓的知名學生, 與辛頓同時獲得圖靈獎的 本吉奧說:“人工智能的發展速度超過了社會能夠跟上的速度。這項技術的能力每隔幾個月就會躍進一次;然而,立法、監管和國際條約則需要幾年時間。”
這讓本吉奧懷疑,我們的社會目前的組織方式,在國家和全球層面,是否能夠應對挑戰。本吉奧說:“我相信我們應該對我們星球上的社會組織存在不同模式的可能性持開放態度。”
辛頓曾看過一部電影,《不要往上看》。在這部電影中,一顆小行星向地球飛去,沒有人能夠就如何處理它達成一致意見,每個人都死了,這寓意著世界最終未能解決氣候變化問題。

△電影《不要抬頭》海報
他說:“我認為人工智能也是如此,其他難以解決的大問題也是如此,(畢竟)美國甚至同意十幾歲的男孩可以持有突擊步槍。”
辛頓的論點令人警醒。
▼
加入《給孩子的新聞周刊》
國內+國際+商業+科技
培養孩子的大視野、大情懷
讓孩子學會思辨
這件事越早開始越好





京公網安備 11011402013531號