IT之家 11 月 30 日消息,人類往往將語言能力與智能劃等號,然而最新研究表明,語言并不等同于智能。認知共振(Cognitive Resonance)風險投資公司的創始人本杰明?萊利(Benjamin Riley)在為《The Verge》撰寫的一篇評論文章中指出,這對人工智能行業而言是個壞消息,該行業正將其對“通用人工智能”(Artificial General Intelligence, AGI)的所有希望寄托于當前所采用的大語言模型(Large Language Models, LLMs)架構之上。
![]()
萊利寫道:“問題在于,根據當前神經科學的理解,人類的思維在很大程度上獨立于語言。我們沒有理由相信,僅靠對語言進行越來越復雜的建模,就能創造出一種在智能上達到甚至超越人類水平的系統。我們確實用語言來思考,但這并不意味著語言就等同于思維。理解這一區別,是區分科學事實與 AI 狂熱 CEO 們所鼓吹的科幻幻想的關鍵。”
所謂 AGI,是指一種在廣泛任務中具備與人類相當甚至超越人類認知能力的全知型人工智能系統。在實踐中,人們常將其設想為能夠解決人類自身無法攻克的重大難題,從癌癥治療到氣候變化。而通過宣稱正在打造 AGI,AI 行業的領導者們便能為其巨額支出和災難性的環境影響提供正當理由。
據IT之家了解,AI 資本支出之所以失控,部分原因在于業界對“規模擴展”(scaling)的執念:通過向模型注入更多數據,并配備數量不斷增長的 GPU,AI 公司使其模型在解決問題和進行類人對話方面表現得愈發出色。
但萊利強調:“無論我們建造多少數據中心,大語言模型終究只是模仿語言交流功能的工具,而非真正具備獨立、獨特認知過程的思考與推理系統。”
如果語言對思考至關重要,那么剝奪語言就應該會剝奪我們的思考能力。但萊利指出,情況并非如此,他引用了去年發表在《自然》雜志上一篇評論文章中總結的數十年研究。
例如,功能性磁共振成像(fMRI)顯示,人類大腦在執行不同認知任務時激活的是不同區域。我們在解數學題和處理語言問題時,并非調用同一組神經元。此外,對失語癥患者的研究也表明,即便喪失語言能力,他們的思維能力基本未受影響,他們仍能解答數學題、遵循非語言指令,并理解他人情緒。
就連一些頂尖 AI 專家也對大語言模型持懷疑態度。最著名的當屬圖靈獎得主、被譽為現代 AI“教父”的楊立昆(Yann LeCun)。長期以來,楊立昆一直認為大語言模型永遠無法實現通用智能,主張轉而發展所謂的“世界模型”(world models),這種模型旨在通過對各種物理世界數據(而非僅僅是語言)進行訓練來理解三維世界。
其他研究也進一步支持了大語言模型存在“天花板”的觀點。近日發表于《創意行為雜志》(Journal of Creative Behavior)的一項新分析使用數學公式評估 AI“創造力”的上限,得出了令人沮喪的結論:由于大語言模型本質上是概率系統,它們最終會達到一個臨界點,在此之后,無法再生成既新穎獨特又非無意義的輸出。因此,該研究斷言,即便是最先進的 AI 系統,充其量也只能成為“稱職的寫手”,為你寫出一封措辭得體但平庸的郵件。
南澳大利亞大學工程創新教授、該研究作者大衛?H?克羅普利(David H. Cropley)在一份聲明中表示:“盡管 AI 有時能非常逼真地模仿創造性行為,但在當前設計原則下,其真實的創造能力上限僅相當于普通人類水平,永遠無法達到專業人士或專家的標準。”
他補充道:“一位技藝嫻熟的作家、藝術家或設計師偶爾能創作出真正原創且富有成效的作品。而大語言模型永遠不會做到這一點。它產出的內容始終是平庸的。如果各行業過度依賴它,最終只會得到千篇一律、缺乏新意的作品。”
萊利總結道:“誠然,AI 系統或許能以有趣的方式重新組合和復用我們的知識。但僅此而已。它將永遠被困在我們編碼進數據并用于訓練它的詞匯體系之中,一臺只會重復陳詞濫調的‘死喻機器’。”





京公網安備 11011402013531號