近日,2025外灘年會在上海召開,本屆年會主題為“擁抱變局:新秩序·新科技”。會議期間,圍繞人工智能(AI)的圓桌論壇成為焦點,包括智能躍遷:AI的宏觀經濟含義、金融領域的AI治理與國際合作、未來人工智能的變革圖景、AI對勞動力市場的影響等議題,吸引全球財經政要、機構高管及學界領袖,共同探討AI技術的機遇、風險與治理路徑。
AI發展:邊際進步還是行業重塑
當下,AI正在深刻改變工業和日常生活,但究竟是“邊際性工具進步”,還是像蒸汽機、電力一樣帶來根本性行業重塑,是學界與產業界關注的核心問題。
對于AI是否會引發泡沫,哈佛大學教授、美國白宮經濟顧問委員會原主席杰森·福爾曼(Jason Furman)表示:“我實際上會押注泡沫不會出現。”福爾曼認為,即便存在泡沫,也更類似2000年的互聯網泡沫,而非2007年的房地產泡沫或金融危機,因為“并不存在一大筆資金被用作整個銀行體系的抵押品,而且人工智能是真正的創新”。
中國人民銀行原行長周小川則從金融視角分析,AI在信息處理、IT和自動化基礎上的應用,是“又一次邊際變化”,但這一邊際變化意義重大。他回顧銀行業歷史,指出從上世紀六七十年代傳統柜臺操作向現代數據處理行業轉型,是銀行逐步依賴計算機系統完成支付、定價、風險管理和市場營銷的過程。如今,人與機器的關系正經歷從“人主導、機器輔助”向“機器主導、人作為客戶接口”的演變。
跨國比較中,福爾曼指出,美國人工智能資本泡沫風險高于中國。他解釋稱,中國正在探索如何用更少的資源創造更多價值,以DeepSeek為例,表現出較高效率和穩健性。北京大學國家發展研究院院長黃益平從宏觀經濟角度強調,政策應協同發力,人工智能將成為經濟增長新動力,“中國有望成為首要受益者”,而且企業、金融機構乃至高校在AI應用上都非常積極。黃益平認為,這為中國在全球AI經濟競爭中爭取先機提供了條件。
立足香港發展,香港金融管理局副總裁李達志表示,目前AI應用仍處早期階段,沒有完全掌握“制勝公式”。香港長期以來是中國門戶與東西方交流樞紐,“東西方需要加強合作,香港是理想交會點”。香港特區政府通過數碼港建立共享平臺和超算中心,為大型及中小型銀行提供共享算力資源,避免重復建設基礎設施,推動AI紅利最大化。
在實際應用層面,國家金融監督管理總局副局長肖遠企指出,AI在金融機構的應用主要集中于三方面:中后臺運營智能化、客戶交流智能化及金融產品提供智能化。中后臺智能化涵蓋數據收集、加工、信息甄別及客戶評估;客戶交流智能化包括營銷、客戶維護及問題解答;金融產品提供智能化則使AI既降低成本、提升效率,也提供更個性化的產品。
周小川補充稱,AI對貨幣政策影響有限,因為貨幣政策是“慢變量”,需要基于宏觀指標做穩健判斷,而AI的高頻數據處理能力與此特性存在差距。但在金融穩定領域,AI潛力突出,可用于提前預警金融不穩定風險,尤其在銀行體系健康度分析方面提供新手段。
AI風險:勞動力與金融體系的雙重挑戰
AI的快速發展帶來效率與創新的同時,也伴隨潛在風險。法蘭西銀行副行長阿格尼絲·貝納西·奎里(Agnes Benassy-Quere)指出,AI系統面臨三重風險:網絡風險、服務商集中風險和“可解釋性”風險。“網絡攻擊頻率和復雜性上升,金融機構承受全球約一半攻擊,形成系統性風險;服務商高度集中可能導致操作風險和市場反應趨同,增加閃崩可能性;而決策高度依賴AI且缺乏人工驗證,則可能引發責任、訴訟及決策不穩定風險。”她稱。
在勞動力市場方面,李達志強調,AI可能減少部分崗位,同時創造新崗位,核心挑戰在于技能錯配,即能否通過再培訓讓現有勞動力勝任更高端的工作。肖遠企則認為,目前尚未出現員工安置壓力,AI主要起輔助作用,關鍵領域如信貸、保險定價、定損及精算仍需依賴專業人才,“AI不僅不會取代員工,還可能創造更多崗位”。中國社會科學院國家高端智庫首席專家蔡昉進一步指出,AI對勞動力的影響集中在“一老一小”,即青年勞動力面臨初級人力資本挑戰,而大齡勞動力主要表現為逐步退出勞動市場。
金融風險方面,肖遠企指出,AI引入的風險與歷史金融科技變革類似,主要是增量和邊際風險,而信用、市場、流動性及操作風險等根本性風險未發生變化。單家機構面臨模型穩定性和數據治理風險;行業層面則關注集中度風險與決策趨同風險,金融機構可能高度依賴少數技術供應商,使用標準化模型導致決策高度同質化,從而引發潛在“共振效應”。
此外,福爾曼指出,不同國家的資本泡沫風險不同,美國風險高,中國風險相對可控。黃益平則從宏觀政策角度強調,通過政策協同與技術應用,可以降低風險并提升經濟增長潛力。周小川提醒,AI在金融穩定領域應用潛力巨大,但仍需穩健策略與歷史經驗相結合,以防突發性風險。
AI治理:監管與國際合作并行
隨著AI在金融體系的應用逐步深化,治理與監管成為焦點。李達志指出,如果金融機構在采用AI方面行動不夠迅速,也存在失去競爭力的風險。他介紹,香港與國際清算銀行合作開展“Project Noor”,研究AI可解釋性問題,強調國際合作的重要性。
周小川則強調,AI“黑箱模型”問題需監管關注,金融機構大量使用不可解釋深度學習模型,監管部門可能面臨潛在風險不可控問題。同時,AI高頻短期數據分析與央行所需的長期穩定性存在差距,需要政策制定者權衡。
歐盟在AI監管方面走在前列。阿格尼絲指出,歐盟《人工智能法》自2024年實施,其核心在于監管,將AI系統按風險分為四類:不可接受風險(如社會信用評分)被禁止,高風險需嚴格管理,有限風險需告知用戶正在與AI系統互動,最小或無風險則無監管要求。她總結稱:“AI是一把雙刃劍,既提升監管者監測風險能力,同時也增強風險本身的潛在影響力。”阿格尼絲強調,希望其他國家展示如何確保AI發展遵循基本原則。
周小川進一步指出,當前國際合作在AI具體議題上有限,但基礎設施建設和跨境聯通仍存在合作空間。他呼吁加強金融行業AI基礎設施建設,為未來國際合作奠定基礎。
在政策實踐層面,肖遠企認為,AI帶來的金融風險需監管部門重點關注增量和邊際風險,包括模型穩定性、數據治理、集中度和決策趨同等,同時借鑒歷史金融科技變革經驗,建立可操作的風險管理框架。他指出,AI的應用仍處于早期階段,監管與創新應并行推進,確保金融體系穩定與技術紅利兼得。





京公網安備 11011402013531號