![]()
大語言模型正以驚人的速度重塑世界,引發一場全新的智能革命。從ChatGPT的橫空出世,到各行各業的顛覆式變革,大語言模型不僅僅是技術熱點,更是我們理解未來、把握機遇的關鍵所在。《大語言模型》一書旨在帶領讀者深入這場變革的核心。你將了解:1.大語言模型的原理與應用:探索Transformer等核心技術原理,揭開大語言模型的神秘面紗。 2.智能革命的影響力:洞悉大語言模型在醫療、法律、教育、編程、藝術等領域的廣泛應用和深遠影響,看它如何提升效率、催生新職業,又帶來哪些挑戰。 3.超越技術的思考:引領你探討智能、思維與意識的本質,以及大語言模型對這些核心概念的沖擊和啟發。 這場由大語言模型驅動的智能革命已經到來,不了解它,你就可能錯過未來。這本書不僅為你揭示大語言模型的技術奧秘,更重要的是,它將幫助你在充滿不確定性的時代,看清智能發展的浪潮,把握住屬于你的機遇。
本書是《深度學習》作者特倫斯·謝諾夫斯基的新作,他與AI教父辛頓同屬一個核心圈層,擔任AI峰會NeurIPS基金會主席,美國四院院士。他站在生物學與計算機科學的交叉點,以其獨特視角,為讀者帶來兼具科學嚴謹性與科普易讀性的思想盛宴。
![]()
《大語言模型》,[美]特倫斯?謝諾沃斯基 著,李夢佳 譯,中信出版集團2025年7月出版
>>內文選讀:
自從OpenAI于2022年11月推出ChatGPT以來,大語言模型的突飛猛進讓世界再次震驚。人們對它的反應可謂喜憂參半:一方面為它能快速生成流暢文本而著迷,另一方面又擔憂它對就業前景和未來發展的影響。
語言作為人類最根本的能力,一直是我們判斷智力水平的關鍵標準。如今,人工智能的快速發展引發了一些人對超級智能突破的擔憂,認為這可能危及人類的生存。比爾·蓋茨、埃隆·馬斯克乃至教皇方濟各等知名人士都對此發出警示。
一點是毋庸置疑的——盡管ChatGPT不是人類,但大語言模型在處理和提取海量文本數據方面已經超越了人類的能力。這種仿佛來自異世界的“造訪”,在學界引發了一場爭議:大語言模型是否真正理解它們所產生的內容?我們要如何驗證一個系統是否真正具備理解能力?而對人類的理解過程本身,我們又了解多少?
大模型也在反向“試探”你的智能
眾所周知,圖靈測試是檢驗人工智能模擬人類反應能力的經典方法,而目前有趣的一點是,在實際人與大語言模型交互過程中,大語言模型似乎在進行一種更為微妙的反向圖靈測試,通過映射我們的反應來檢驗對話者的智能水平和提示質量。這具體表現為:
對話者的思維水平越高,提供的提示越有深度,大語言模型就能展現出越高的智能表現。當對話者表達強烈觀點時,模型也會相應地展現出更大的互動熱情。
這種映射現象可以理解為啟動效應與語言能力的協同作用。這一現象并不能說明大語言模型具備與人類相同的智能或意識,但確實展示了它在模仿人類個性特征方面的卓越能力。
大語言模型在映射用戶需求和智慧時,可能就像《哈利·波特》中的厄里斯魔鏡。這面魔鏡“只能映照出觀看者內心最深切、最渴望的愿望,僅此而已。然而,它既不能賦予知識,也不能揭示真相。人們可能會在鏡前虛度光陰,或是被鏡中景象迷惑,甚至因無法分辨這些景象的真實性與可能性而陷入瘋狂。”
通用人工智能一直是人工智能領域追求的終極目標。有趣的是,這種通用能力正在大語言模型中逐步顯現,但其實現形式與早期人工智能研究者的設想有所不同。大語言模型不僅展現出在各類語言任務中的多面性,還具備編程等跨領域能力。
特別值得注意的是,這些模型表現出了超乎預期的社交智能。鏡像假說為我們提供了一個全新的思考角度:通用智能是否首先源于人類的社交互動能力,而語言能力是在進化過程中發展出來的社交強化工具?這促使我們需要重新審視人類“通用智能”的本質和起源。這種觀點可能會對我們理解智能的本質帶來革命性的改變。
人類“智能”的標準該重寫了嗎?
2023年12月1日,加州大學圣迭戈分校認知科學系舉辦了一場主題為“ChatGPT真的理解語言嗎?”的教師辯論會,現場座無虛席。
反方辯手首先提出了“中文屋”的變體:一位哲學家在房間內,有人從門縫遞進寫有中文的紙條,這位哲學家按照既定算法處理后將回應遞回門外。那么,這位哲學家是否真正理解了中文?這個論證引發了諸多質疑。
在辯論中,案例被改編為“匈牙利語屋”,哲學家則被替換為大語言模型,從而推論出大語言模型并不理解匈牙利語。然而,如果我們把“匈牙利語屋”換成“匈牙利大腦”,把哲學家換成物理定律,同樣的論證邏輯依然成立。至此,辯論的水平開始走低。
在我看來,這就像一杯水,反方認為它是半空的,正方認為它是半滿的,真相應該介于兩者之間。在隨后的問答環節中,我提出語言學家普遍認為語言的表達能力源于語法,而在語法生成能力方面,大語言模型實際上比多數人更為出色。對此,反方認為語法問題并非核心所在。值得注意的是,隨著技術的不斷進步,人們對人工智能的評判標準也在不斷提高。
關于大語言模型是否具有智能的討論,最終取決于我們如何定義“智能”。
大語言模型LaMDA通過了阿爾卡斯設計的心智理論測試,而心智理論被認為是自我意識的重要標志之一。不過,也有不少人對此持謹慎懷疑態度。人類往往會低估其他動物的智能,僅僅因為它們無法與我們進行語言交流。這種消極偏見恰好與另一種偏見形成呼應:我們傾向于對能與我們交談的個體產生積極偏見,即便它們的實際智能水平可能并不高。
這不禁讓人思考:我們是否具備足夠的智慧來判斷智能?大語言模型問世僅有短短數年,現在就推斷它們或其后代可能達到怎樣的智能水平還為時尚早。就像會說話的狗最令人稱奇的是它能說話這一點本身,而非它所說內容的智慧程度或真實性。大語言模型即便在不夠準確的情況下也會做出自信滿滿的回應。如果我們將評判標準從理想化的人類轉向普通人,或許能得到更切實的比較結果。
專家們對大語言模型智能的認知分歧,凸顯出我們基于自然智能的傳統認知框架已難以適應當前形勢。大語言模型的出現為我們提供了一個重要契機,促使我們突破固有思維模式,超越19世紀心理學遺留下來的過時概念。我們需要重新審視并深化對“智能”“理解”“倫理”以及“人工”等核心概念的認識。
人類的智能顯然不僅限于語言能力;我們可能在某些領域與大語言模型擁有共同的智能特征,但在其他方面則存在本質差異。以創造力為例,它是自然智能的典型特征,而大語言模型也確實展現出了創造性思維的潛質。在實際對話中,如果否認大語言模型具備理解人類意圖的能力,那么它生成的許多文本內容就難以得到合理解釋。這使我們必須對“意圖”這一概念進行更深入的探討。這一概念源自心智理論,而心智理論本身也值得我們進行更細致的研究和重新思考。
問題的關鍵在于,對于大腦這樣一個復雜系統,存在著無數相互作用的神經元和內部狀態,不同的實驗探測了不同的大腦區域,實際上每個實驗研究的都是不同類型的“注意力”。對于大腦這樣的復雜動力系統,很難用“注意力”和“意識”這樣的概念來進行準確定義。
語言賦予人類獨特能力,但詞語本身具有不穩定性,這種不穩定性恰恰是它們力量的源泉。因此,我們需要更堅實的基礎來構建新的概念框架。
我們正處在一個前所未有的歷史機遇期,這與17世紀物理學變革時期極為相似。當時,“力”“質量”和“能量”等概念經過數學形式化處理,從模糊的術語轉變為精確的可測量指標,由此奠定了現代物理學的基礎。在研究大語言模型的過程中,我們很可能會發現關于智能本質的新原理,就像20世紀物理學家揭示物理世界的基本原理一樣。正如量子力學在首次提出時違背人們的直覺認知一樣,當智能的基本原理被揭示時,可能也會呈現出違反常理的特性。
自然是否在高度進化的靈長類大腦中實現了一個類似于大語言模型的系統?通過研究大語言模型展現的語言處理能力,我們可能會發現一些關于語言智能的基本原理,這些原理或許能夠推廣到社會智能、機械智能等其他智能形式。與生物進化相比,大語言模型的發展速度要快得多。一旦相關技術基礎確立,其性能就會在持續改進中不斷提升。
這項技術最為突出的特點在于:在探索其發展的過程中,我們可能會深入理解人類智能的本質。





京公網安備 11011402013531號