![]()
托馬斯·薩金特(Thomas J. Sargent),圖片由香港大學經管學院提供
在全球經濟進入高不確定性的時代,生產停滯、地緣政治分化、產業鏈重構,人們正在重新關注一個根本性問題:AI到底改變了經濟運行的哪些基本規律?
諾貝爾經濟學獎得主托馬斯·薩金特(Thomas J. Sargent)足夠具備回答這個問題的資格。他長期致力于宏觀經濟學、貨幣政策與時間序列分析的研究,近年來尤其關注人工智能、機器學習與經濟學模型的融合。
2011年,薩金特與克里斯托弗·西姆斯(Christopher A. Sims )共同獲得諾貝爾經濟學獎。薩金特的的貢獻主要在于“結構宏觀計量經濟學”(Structural Macroeconometrics)方法的發展。
也就是說,通過統計與計量模型,把人們對未來經濟政策與經濟環境的預期(expectations)納入分析,并研究這些預期如何影響現實經濟決策與結果。
作為理性預期革命的核心人物、動態宏觀經濟學與結構經濟統計學的奠基者,薩金特長期研究“人類如何識別模式、理解規則,并據此進行決策”。
換言之,他研究的是機器學習試圖模仿的那套智能機制。正因為如此,11月25日晚,薩金特在香港大學經管學院的這場《AI與經濟學》(AI and Economics)演講十分值得關注。
演講主要圍繞人工智能的本質、模式識別、規則理解、機制推斷,以及這些能力如何塑造市場、社會與政策選擇等話題展開。
鈦媒體APP小結起來,薩金特的演講關鍵亮點有三:
亮點1:AI是“開普勒式擬合”還是“牛頓式理解”? 當前的AI大多停留在擬合世界,而非解釋世界——這是機器學習與經濟學最大的差距。 亮點2:AI的數學骨架來自經濟學與動態決策理論 薩金特指出,機器學習的根基來自經濟學家、控制論學者與博弈論先驅,這本質上是一場跨領域知識的長周期匯流。 亮點3:AI將重新分配勞動、資本與市場結構的利益 AI不僅是技術革命,也是收入、競爭結構與生產率分布的重塑力量。
在演講開篇,薩金特將“智能”拆解為三個部分:模式識別、概括與決策。這些能力長期被視為人類獨有,卻在機器學習與統計學的推動下以驚人的速度被部分復制。
然而,人類的智能并非為現代世界而生,而是源自數十萬年的進化史。心理學家史蒂芬·平克(Steven Pinker)認為,我們的直覺在統計、經濟、生物和物理領域往往是“原始的”。
面對現代經濟的復雜性,人類直覺經常失敗。這正是為什么人類需要模型,也正是為什么AI的發展離不開數學、經濟學、統計學、博弈論等跨學科積累。
薩金特接著把理解AI的眼光放在了更長的科學史框架。他通過托勒密、布拉赫、開普勒、伽利略、牛頓等科學人物的對照,解釋了機器學習與經濟建模的核心差異:究竟是在做“開普勒式的曲線擬合”,還是在做“牛頓式的結構推斷”?
現代AI在模式發現與擬合層面已高度成熟,而經濟學、政策制定與社會治理仍然需要規則層面的理解。這意味著,真正的智能仍然需要人類的結構性洞察,而非僅僅依賴自回歸模型的參數訓練。
薩金特對多個AI奠基學科的梳理:動態規劃、貝葉斯推斷、進化算法、遺傳算法、博弈論與最優控制,都以某種方式成為現代機器學習的基石。
他回顧了馮·諾伊曼(John von Neumann)、奧斯卡·摩根斯特恩(Oskar Morgenstern)、亞伯拉罕·瓦爾德(Abraham Wald)、約翰·霍蘭德(John Holland)等跨學者如何在二戰后奠定了“AI的數學骨架”,甚至認為,查爾斯·達爾文(Charles Darwin)是“最后一位偉大經濟學家”——因為自然選擇本質上就是激勵與選擇機制的經濟學系統。
這些跨學科回顧某種程度上也在說明,AI并不是一種“新技術”,而是數學與經濟學關于人類決策本質研究的延續。他進一步指出,AI對勞動力市場的影響是結構性的,它更易替代低技能勞動,而與高技能勞動形成互補。這一趨勢正在推動資本回報上升、勞動份額下降,重塑全球收入分配的格局。
以下托馬斯·薩金特現場演講內容,并在不改變原始敘述順序的前提下,對語言進行了學術化校訂:
今天我們要談論人工智能與經濟學。在進入人工智能討論之前,我想首先界定“智能”這一概念,即在本次講座中我所指的智能含義。對我而言,智能可以從行動者的角度來理解,它主要包含三個方面。
第一,是模式識別。我們都會不斷收集感官數據,并將這些數據壓縮、提取為較小的結構,以形成可以被辨識和處理的模式。第二,是概括(generalization)。當我們識別出模式后,我們會做出一種幾乎是類似宗教信仰般的假設:即這種模式會延續到我們尚未觀察到的未來數據中。第三,是決策。人類每天都在進行決策——無論是向左、向右、向前、向后,還是是否工作、是否參與某一活動,這些都是基于認知模式與外推形成的判斷。
那么,人工智能的含義是什么?簡單來說,就是人類構造一種機器,使其能夠執行上述一項或多項與智能相關的活動。而在創造人工智能時,我們依賴哪些技能?我們是如何創造這些系統的?要回答這些問題,我們需要回到心理學,尤其是認知心理學的研究。認知心理學家指出,人類在使用某些認知技能時,其基礎往往源于進化過程中形成的本能,而這些本能并不總是適用于現代環境。
例如,史蒂芬·平克在《白板》(The Blank Slate)中指出,人類在數十萬年的進化中,主要是一種采集者物種,而非農民、工人、數學家或經濟學家。我們在長期進化中發展出的本能,讓我們在一些領域表現得很強,例如生存、尋找食物、識別危險,但這些本能在現代社會的復雜問題面前往往并不可靠。平克強調,人類在四個領域擁有天生的原始直覺:統計、生物學、經濟學和物理學。
然而,這些直覺是由遠古環境塑造的,而非為現代世界設計的,因此它們在處理復雜系統或抽象理論時常常具有誤導性。例如,原始人雖然在物理直覺上擅長處理空間、運動和動量之間的關系,但現代物理學(如量子力學)完全違背這種直覺;即便是費曼這樣偉大的物理學家也承認自己無法“直覺地理解”量子力學。同樣地,人類的經濟直覺在面對現代經濟體系的生產、分配、激勵機制時往往表現糟糕。
因此,我們帶著這些進化遺留的認知結構來構建人工智能模型,而這些模型使用的數學與邏輯工具往往正是為了補償這些人類本能的不足。人工智能借鑒并繼承了統計學、生物學、經濟學和物理學的工具,因此從本質上說,它不是一個“新領域”,而是跨學科知識的延伸。
接下來,我想簡要回顧科學革命中的幾位關鍵人物,因為他們的工作方式能夠幫助我們理解人工智能發展的歷史階段。托勒密(Ptolemy)提出以“圓”與“本輪–均輪體系(epicycles)”為基礎的地心模型。他的數據來自幾百年累積的大規模天文觀測,他構造了一個具有大量參數的龐大模型來擬合行星位置。這是典型的“曲線擬合模型”,其擬合效果極佳,因此其理論長達1500年未受到挑戰。
布拉赫(Tycho Brahe)并未提出新的理論,但他收集了更大規模、更高質量的天文數據。開普勒(Kepler)利用布拉赫的數據,將圓改為橢圓,使模型更簡潔,參數更少,擬合效果更好。然而,開普勒的模型依然屬于“描述性模型”,即通過擬合數據來描述現象,而非解釋其背后的機制。
伽利略則采用了實驗方法。他由于缺乏精確計時工具,設計了斜面來降低物體下落速度,以便獲得可測量的數據。他從這些近似數據中推導出加速度規律,并將其傳遞給牛頓。牛頓的成就在于,他將開普勒的行星運動描述與伽利略的加速度概念統一到一個結構性解釋中。他不僅擬合現象,更解釋了背后的機制。這是從“開普勒式曲線擬合”邁向“牛頓式結構理論”的關鍵轉變。
我總忍不住提到達爾文。達爾文通過大量文本筆記整理出自然選擇的三條原則:自然差異、遺傳和選擇。他閱讀了馬爾薩斯與亞當·斯密關于進化與競爭的著作,從中獲得理論靈感,并應用到自然界。事實上,有人說達爾文是“最后一位經濟學家”,因為他將經濟學的競爭邏輯成功引入了生物學。
人工智能在技術上延續了這些科學傳統。以AlphaGo為例,它使用了博弈論、分布式計算、動態規劃、蒙特卡羅模擬等工具,這些工具來自數學、經濟學、物理學。馮·諾伊曼和瓦爾德在二戰后發展了動態規劃和統計決策理論,這些方法構成了現代機器學習的重要基礎。
約翰·霍蘭德(John Holland)是另一位跨學科的先驅,他在1980年代設計了遺傳算法(Genetic Algorithm)。他以DNA結構為靈感,將“如果–那么”規則編碼為二進制串,并通過突變、交叉等機制模擬選擇過程。他讓這些規則競爭,通過類似賬簿的機制記錄其表現。我們曾使用霍蘭德的分類器系統,將其嵌入一個動態經濟模型,以研究系統能否收斂到納什均衡。結果顯示它確實可以收斂,盡管最終穩定在一個較差的均衡上——這表明人工智能可以探索系統,但未必能找到“最好”的解。
理查德·費曼曾用一個著名比喻來解釋科學家的工作方式:一個對國際象棋一無所知的觀察者觀看棋局,只能通過不完整的信息推斷棋規。物理學家觀察自然現象時處境類似,經濟學家也是如此。結構經濟統計學的目標正是從有限的價格與數量數據中反推產生這些數據的“游戲規則”,包括玩家、行動、收益、信息結構與均衡方式。
人工智能目前擅長發現與組織模式,但在推斷“游戲規則”方面仍然非常有限。許多職業的核心工作正是組織模式,因此AI具備替代性;但涉及規則推斷、機制設計、因果推理的工作仍高度依賴人類。
接下來,我想引用馮·諾伊曼、摩根斯坦和庫普曼斯等人關于建模的經典區分。他們指出,物理與經濟學模型有兩個階段:一是開普勒式的描述模型,主要依靠曲線擬合;二是牛頓式的結構模型,包含不隨環境變化的“參數不變量”。現代經濟學與機器學習也面臨同樣的劃分。很多回歸模型只是擬合關系,不能解釋機制;而結構模型則追求在干預、政策變化下仍然穩定的推斷邏輯。
在經濟學與金融學中,我們使用大量“主方程”(master equations),包括均衡馬爾可夫模型與一組在公共狀態空間上定義的馬爾可夫決策問題。AI在求解這些方程時展示了巨大潛力,尤其是在均場博弈(mean field games)與最優運輸(optimal transport)問題中。但AI的成功依賴于高超的人類監督與模型設定。它可以幫助我們應對“維度災難”,卻無法替代模型本身。
在經濟政策上,我們甚至可以用機器學習的函數逼近能力來求解拉姆齊計劃(Ramsey plan)等動態規劃問題。例如在Calvo(1978)定價模型中,我們可以讓機器學習搜索滿足偏微分方程的函數。但理解該函數所代表的經濟意義,需要高度的人類經濟學洞察。
接下來,人們常問:AI會取代工作嗎?軟件價格持續下降,企業越來越依賴軟件而非硬件。軟件替代了一些類型的任務,提高了企業加成率,使勞動份額下降、資本份額上升。不同技能的勞動者面臨不同命運:對高技能者,AI是互補品;對低技能者,它是替代品。這是技術變遷下的結構性趨勢。
現場對話環節
(由香港大學經管學院人工智能計量與組織中心主任李晉教授主持)
![]()
左:李晉,右:托馬斯·薩金特,圖片由香港大學經管學院提供
李晉:非常榮幸能與托馬斯進行對話。對我而言,這也是極大的榮幸。我認識托馬斯已有25年,當時我還是加州理工學院的一名本科生。我們常常認為AI正在改變一切,認為AI是全新的,但實際上太陽底下并無新事。我認為,要理解AI,我們更需要審視那些永恒不變的東西。作為一名經濟學家,隨著時間推移(這方面您可以糾正我),我認為經濟學可以概括為三個詞:約束條件下的最大化與均衡。存在約束(即稀缺性),存在最大化行為,再加上競爭,最終導向均衡(這或許有些狹隘)。讓我們從“約束”開始。在您看來,AI改變了哪些約束?它幫助我們緩解了哪些約束?它將如何改變社會?或者更具體地說,它將如何影響經濟研究?
托馬斯·薩金特:這是個很好的問題。我的回答完全基于個人觀點,一切都從個人角度出發。我們晚餐時聊到了決策理論,馮·諾依曼和摩根斯坦(VNM)構建了主觀效用理論的基礎。那些效用函數不在外部世界,而在我們頭腦中,描述我們的偏好。因此,我的回答將是完全主觀的。
我思考的是我作為實證研究者日常活動所面臨的約束。每天遇到的兩個主要約束是:數據集在某種意義上不夠大;它們沒有在我關心的維度上提供足夠的變異,從而難以推斷我關注的參數。數據集不夠大的一個原因是社會性的——社會尚未系統性地收集這些數據。但現在,數據信息的收集正在加速。不過,在我們將數據用于分析之前,它們僅僅是數據。如今數據集確實變得更大了,所以從很多方面來看,更大的數據集對我完全有益。
第二件事是,我打算用這些數據做什么?我要么采用頻率學派的統計方法,要么采用某種貝葉斯統計方法。我的朋友克里斯·西姆斯會說,要么是頻率統計,要么是貝葉斯統計。如果兩者都不是,那我可能不夠誠實。如果我說我不用任何模型、不用任何先驗,只用深度神經網絡和網絡數據,他就會追問,讓你不得不承認你其實有很強的先驗——當你選擇特定類別的基函數和特定的超參數集時,你實際上是在估計這些超參數,并對它們施加了隱含的先驗。最終他會說,你其實很懶,因為你不能回到基本原則。遇到像克里斯·西姆斯這樣的人,你無法逃避,只能被引導回正確的方向。所以我們使用某種頻率學派或貝葉斯統計方法。
在這些方法中,你想要最大化某個目標,這是一個帶約束的最大化問題。計算機速度、算法的進步以及巧妙的應用數學和計算方法為我們提供了許多工具。其中一些工具,比如PyTorch的底層,就包含了一系列非常復雜的優化算法,包括自動微分等。他們說“自動微分”,那么微分的是什么呢?你可以去深入了解。總之,這就是我的回答。我很喜歡你組織這個問題的方式。
李晉:關于約束,我想接著問下去。你的回答讓我聯想到費曼的比喻:你觀察人們下棋,但不知道規則。我認為其中一個約束是“注意力是有限的”。從某種意義上說,我們看到了比以往更多的數據,但第二個問題是,我們如何決定哪些規則是相關的?你剛才沒有時間詳細展開,但你提到了兩種理論類型:一種是曲線擬合,另一種是更具結構化的類型。你能否展望一下未來?你認為在經濟學文獻中,我們會看到更多曲線擬合類型的理論,還是更多結構化的規則?技術發展會導向哪個方向?
托馬斯·薩金特:你提到了經濟學。機器學習和AI使得其中一件事——曲線擬合——變得容易得多,也便宜得多。你知道,經濟學理論、標準勞動經濟學認為人既貪婪又懶惰。這就是我們寫下的效用函數:人們喜歡消費,不喜歡付出努力。這沒什么錯,我們確實如此。所以現在,你基本上改變了相對價格。
你讓其中一項活動(非結構化的描述性分析)變得便宜得多。在經濟系里,我們已經看到了這種現象。而尚未變得便宜的,是構建結構化的模型——也就是寫下博弈,試圖確定偏好、技術、稟賦等深層參數。這并沒有變得更便宜。對于給定的模型,一旦建立起來,求解確實更容易了。
但是,像拉爾斯·漢森在宏觀經濟學、阿里爾·帕克斯在產業組織、戴夫·唐納德遜在貿易領域所做的那種深思熟慮的結構模型工作,目前還沒有任何AI智能體能夠提出這些模型。AI可以幫助他們更快地求解,但構建模型本身的價格并未下降,我認為短期內也不會下降。
現在問題變得有點神學意味了:我希望它下降嗎?這取決于你從何處獲得快樂。但我想,這正是讓我們與眾不同的地方。我不知道。在各個領域你都能看到,實際上,一些提倡非結構化工作的人對此相當誠實。他們這樣說:像阿里爾·帕克斯所做的結構化工作充滿了必要的技術性假設。
這是一個顯而易見的觀察。但這些只是假設,并非字面意義上的真實。想想它對科學數據的影響。這總是對的——我的意思是,我們的模型總是抽象的,并非字面真實,而且構建起來非常困難。所以我們不如放棄聯立方程、動態博弈,只做那種計量經濟學奠基人(如庫普曼斯、胡利、馬沙克)曾說會因忽略聯立性和動態關系而產生誤導的、非常簡單的回歸擬合。
我本來準備了另一張幻燈片:計量經濟學和物理學的奠基人抵制使用“原因”這個詞。他們只使用“關系”。但現在有一種文獻,一直在使用“原因”這個詞,其方式會讓庫普曼斯和哈維爾莫非常反對。這在某種程度上是因為他們所從事工作的相對價格發生了變化——非結構化工作的價格下降了。這確實非常有趣。
李晉:這個問題是由你剛才的回答所激發的。關于我們應該培養學生具備什么樣的技能?我們這里有一個很大的碩士項目,以及AI高管項目。您認為未來哪些技能對我們的學生更重要?我補充一下,您在培養學生方面是傳奇性的。您指導過很多博士生,可能很少有人能接近您那樣的成就。我很好奇,您對我們這里的學生有什么建議?他們應該學習哪些東西?
托馬斯·薩金特:我記得你在加州理工讀本科時,感到很害怕。因為我曾就讀于加州理工附近的一所高中,我父親開車經過時會告訴我,我永遠進不去那里——他說得對。每三四年,我們高中有一個人能被錄取,但最終退學了。那個人比我強十倍。后來我遇到了你,和你交談,我不明白為什么,我父親是對的,那里確實很嚇人。
我曾和你一起上過研究生課程,你當時是本科生。我只記得我們當時都在努力學習。我們都在那個班里學習。我試圖學習并做些研究,而你去上課只是因為……所以你當時正處于同時成為通才和專才的過程中。
但問題是,這是一個約束優化問題。你懂的數學比我多。我當時大概55歲,你18或20歲。你懂的數學更多。不過,你不需要成為偉大的數學家也能成為合格的經濟學家。
回答你的問題,哪些技能能持久?我認為,如果你是做應用研究的人,尤其是如果你非常擅長學習數學和統計學,你可以去我的辦公室,我有五六十年歷史的數學和統計學書籍。如果你打開它們,上面有鉛筆筆記,我還記得里面的內容。那些東西比宏觀經濟學教科書中的流行內容陪伴我的時間更長。所以我認為,硬技能基礎——就像李晉所說的,約束、優化、目標和均衡概念——至關重要。如果你能理解他所說的含義及其應用,那將伴隨你一生。你可以去聽一個研討會,有人在談論某事,用某種直覺來闡述,但沒有明確說明約束是什么、標準是什么、均衡概念是什么。只要你心中有那些核心概念,你就能判斷這個人是否在做連貫的演講。這將一直伴隨你。
所以我想說的是,有一些核心工具可以讓你變得靈活。我們之前談到決策理論。決策理論家大衛·克雷普斯深入思考過這個問題,他寫過一篇關于靈活性偏好的早期論文并提出了公理。
我認為,在AI和類似技術發展的今天,你無法想象將來會有什么工具可用,什么會奏效,什么不會。我這樣說并非有意冒犯,但你看,年輕的楊立昆(Yann LeCun)幾周前說過,他是卷積神經網絡的重要發明者之一,是機器學習領域的核心創造者。他說所有做大語言模型的大AI公司都走錯了路,他們在浪費數十億美元。
他告訴了原因。這不是細節問題,不是節點數不對或算法不對,而是他們對智能是什么的模型是錯的。我之所以這么說,是因為他可能對也可能錯,但他說那些投資數十億美元的人并不知道正確答案,這讓我懷疑是否有人知道5年或10年后會是什么樣子。
實際上,他教過我。他告訴我,我可能當時也犯了像把“從現在起”說成“以前”這樣的錯誤。我仍然記得在加州理工,他把時間說反了。他說:“你不應該為此感到難過,因為物理學的基本定律在時間反演后看起來是一樣的。”所以他那樣說真是非常友善,令人難忘。
李晉:我還想強調一點。現在不僅在經濟學系,在戰略系,人們也經常談論回歸第一性原理。對經濟學家來說,第一性原理就是那三個詞:約束、最大化、均衡。
我也認為,我們在大學里,任何時候有人問“最新趨勢是什么?”,我們當然可以去關注。但那不一定是我們的比較優勢。我們的比較優勢或許在于關注那些更持久、更重要的東西。就像亞馬遜創始人杰夫·貝索斯喜歡說的,人們喜歡問我10年后事情會有什么不同,這是個好問題。
但更好的問題是:未來10年什么不會改變?他說,未來10年,顧客可能仍然想要更低的價格、更快的配送、更高的質量。只有我們知道哪些東西是不變的,我們才知道如何在此基礎上構建商業戰略。在這個意義上,我認為來到大學,學習數學、統計學等難學的科目,可能會讓我們與眾不同,并賦予我們持久的競爭優勢。這太精彩了。所以我還在上課學習。
托馬斯·薩金特:為什么?因為我妻子不希望我退休后整天待在家里。如果你見到她,跟她說:“卡羅琳,我覺得我實際上認為我退休了。”你應該看看她的表情。
所以,我了解到他在加州理工學院的一位同學是我的一門課的老師。那門課是計算幾何,是像他一樣聰明的人教的。我從那門課學到的一個概念是“不變量”,這來自物理學。他們看一個問題,一大堆事情在發生,很多細節,他們尋找子系統中的不變量。但如果你以這些恒定的東西為指導,并將其作為教育的原則,用來指導你學習的東西,我不知道,你學習梯度是什么,一階導數是什么,你明白這些概念會不斷回來。
現場觀眾提問環節
觀眾1:您好,薩金特教授,感謝您精彩的講座。我來自這里的碩士項目。我的問題與李教授的問題相關,是關于人工智能對教育的影響。在您的講座中,您梳理了人類心智的智力結構,以及人工智能如何利用傳統工具(用于研究自然法則)使其更易于應用。您也提到了通識教育與專才教育。
我想了解,您認為人工智能對學位教育和整體教育的影響是什么?您認為這會推動教育走向更注重通識(或更聰明)的方向,還是更專才的方向?博雅教育是否仍然重要?您會建議培訓哪些技能,以讓學生為未來時代做好更好準備?
托馬斯·薩金特:謝謝,這是個很好的問題。這個問題讓我困擾,因為我觀察到AI已經對一些本科生和研究生造成了負面影響。例如,我曾教授一門本科課程,發現無論我們出什么題目,學生都會使用AI。研究生課程中情況類似。班上有一部分學生負責任地使用AI,但大多數人將其視為學習的替代品,并為自己能“智勝”老師而沾沾自喜。結果他們什么也沒學到。
確實如此。我逐漸學會了一些應對方法。通過反復嘗試最佳反應,我摸索出如何設計能夠區分學生的考試,以及如何利用AI引導他們學習某些內容。但這只對班上排名前25%的學生有效。我提到這一點是因為感到遺憾:學生認為不必學習微積分,因為若有函數計算,直接輸入AI即可。他們因此失去了一些能力。所以我認為這是一個巨大的挑戰,一個明確存在的問題。
從勞動經濟學的角度看,我們談論互補技能與替代技能。AI對于已掌握技能的人具有互補性。例如,我是個糟糕的Python程序員,仍在學習中,但與優秀的Python程序員合作時,他們能借助AI將效率提升數個數量級。這體現了互補性。因此,AI對某些人有益,對另一些人則不利。![]()
圖片由香港大學經管學院提供
觀眾2:當AI能夠生成頂尖的智能、智慧和內容,就像您這樣的水平時,因為它已經非常聰明,匯聚了各行各業的知識與視角,但有時它生成的內容卻像一個有心理健康問題的聰明人所寫,您如何看待這一點?
托馬斯·薩金特:我不確定能否給出好答案,因為我自己也沒有答案。唯一能提供答案的或許是,如何思考一些主觀性問題?我可以坦誠但或許無用地回答:我曾與一位朋友(也是我的學生,實際上更是我的老師)合作撰寫AI論文,要求AI解決一個具有層次結構的難題。該問題具有類似經典動態約束優化問題的結構,我們將其轉化為計算問題,并用簡單的函數逼近方法很好地解決了它。
但問題在于,如何理解并解釋這個解決方案?解釋意味著提取答案,并以動態規劃理論家所使用的方式表述。我們嘗試通過運行一系列回歸來實現這一點,但這要困難得多。沒有我們的介入,AI無法獨立完成。這或許與你提到的情況類似。AI能處理數據、進行描述性分析、擬合函數。
有時,AI會非常有創造力地生成“偽造數據”。這不是指像某些政治人物所說的“假數據”,而是指在金融、物理學等領域廣泛使用的一種方法,例如求解偏微分方程。這些方程出現在動態博弈與均衡中。
有些偏微分方程系統易于寫出,但求解極具挑戰性,無法解析求解,必須數值求解。方法是生成一些基函數,AI在這方面非常擅長。具體做法是:猜測一個函數,生成一些“偽造數據”,檢查方程是否滿足,若不滿足則生成另一個猜測,形成目標函數并進行優化。AI以此方式創造性使用“偽造數據”,類似伽利略的做法。這種方法已被廣泛應用,效果良好,但AI并未發明這些偏微分方程,也未指出哪些方程是正確的。正因如此,我認為,AI可能會讓我失業,但我認為不會讓他(李晉)失業。
觀眾3:您如何看待人們使用AI回答經濟問題,以非理性方式生成看似理性的答案?他們擁有大量數據,并能邏輯地解釋原因,但實際上是在為他們想要的結果倒推理由。
托馬斯·薩金特:我明白你的意思。就像……為了“麥當勞島”?(可能為玩笑或典故)不,我不確定那是什么。好吧,有人對“麥當勞島”收取高額測試費,這是個事先的玩笑。他們用AI生成為何需要高測試費的理由。
這很有趣,也在某種程度上是真實的。仔細思考你關于“從想要的結果倒推是否可行”的問題,我想說,優秀的科學家經常這樣做。牛頓便是一例:他想要推導開普勒定律,涵蓋所有情況,解釋某些方差等。他列出目標,一旦清單確定,剩下的計算甚至加州理工的本科生都能完成。他正是從想要的結果倒推。
問題部分在于設計你想要的目標。若目標本身有害,這引發深刻思考,這不僅關乎AI。我舉個例子,在斯坦福時,我與一位政治學家交談。某天在走廊遇到一位優秀的政治學家,我評論希特勒是瘋子。他回應:“不,他不是瘋子。”他指出希特勒并非擁有相同偏好,但行為非常理性,他隨后解釋,這讓我震驚,因為我認為希特勒是純粹邪惡,但他的觀點有道理。
十年后,我讀歷史學家亞當·圖茲的書,內容艱澀但,博弈論者談論合理化:觀察某些決策,能否逆向工程出一個連貫的世界觀,使得這些決策在該世界觀下最優?這甚至適用于希特勒?這令我恐懼,但在承擔的風險方面?是的。因此,你的問題不僅是AI帶來的新問題,更是社會科學中長期存在的舊問題。(本文首發于鈦媒體APP,編輯整理|李程程)





京公網安備 11011402013531號