3月27日下午,中原金融博物館內,人聲鼎沸。這一天,第三十五期中原金融大講堂(總第240期博物館金融大講堂)在這里舉行,吸引了來自金融、科技、法律等多個領域的專家學者和行業精英。

本次大講堂的特邀嘉賓是中央財經大學教授、博士生導師,金融法研究所所長黃震,他以“人工智能在金融領域的應用及其風險防控”為主題,為現場及線上觀眾帶來了一場思想盛宴。
AI浪潮涌動,
金融科技煥發新生
黃震首先回顧了人工智能的思想淵源與發展歷程。從古希臘哲學家的智慧火花,到現代深度學習革命,AI技術的每一次飛躍都凝聚著人類對智能的無限追求。“隨著DeepSeek等人工智能大模型的橫空出世,中國金融科技領域正步入一個全新的發展階段。”
他詳細闡述了2000年以來中美人工智能研發與應用的巔峰對決。從初期的技術跟隨,到中期的生態構建,再到如今的技術反超,中國AI發展路徑清晰而堅定。特別是在金融科技領域,AI技術已從最初的技術輔助工具,逐步成長為驅動行業變革的核心引擎。通過一系列生動的案例,如工商銀行、郵儲銀行等金融機構在AI大模型應用方面的實踐探索,展示了AI在金融客服、信貸審批、反欺詐等場景中的巨大潛力。
在黃震看來,中國在第四次工業革命中憑借技術全面領先、全產業鏈整合、人才儲備豐富以及新型舉國體制等優勢,已從“跟跑者”轉變為“領跑者”。這一轉變不僅體現在AI技術的研發與應用上,更體現在金融科技對實體經濟的賦能作用上。通過AI技術,金融機構能夠更高效地服務實體經濟,促進資源優化配置,推動經濟高質量發展。
風險與挑戰并存,
AI金融應用需謹慎
然而,隨著AI技術在金融領域的深入應用,一系列風險與挑戰也隨之而來。黃震說,數據隱私泄露、算法偏見、技術濫用等問題日益凸顯,成為制約AI金融應用健康發展的瓶頸。
在數據隱私保護方面,他還強調了數據安全與隱私泄露的嚴重性。“金融AI依賴大量敏感數據,如用戶交易記錄、生物特征等,這些數據在采集、存儲、處理過程中極易出現泄露或被逆向還原的風險。一旦數據泄露,不僅會對用戶造成巨大損失,還會對金融機構的聲譽和信譽造成嚴重打擊。”
在算法偏見方面,他通過蘋果高盛信用卡性別歧視等案例,揭示了算法偏見對金融決策的影響。
“當訓練數據存在偏差時,AI模型可能會產生歧視性決策,對特定群體造成不公平對待。這不僅違背了金融公平的原則,還會加劇社會不平等現象。”
此外,技術依賴與漏洞攻擊也是AI金融應用面臨的重要風險。黃震認為,金融機構對第三方AI服務商的依賴可能引發“大而不能倒”的系統性風險。一旦第三方服務商出現問題,整個金融系統都可能受到波及。同時,開源框架斷供、芯片漏洞、對抗樣本攻擊等威脅也可能導致AI系統癱瘓或服務中斷。
多措并舉,
構建AI金融應用風險防控體系
面對AI金融應用帶來的風險與挑戰,黃震提出了構建技術防御、法律完善、監管創新及行業協作等多維度風險防控體系的建議。
在技術防御方面,黃震認為要建立安全可控的技術體系。通過采用聯邦學習、差分隱私等技術手段保護數據隱私與安全;通過實施對抗訓練、模型集成等方法提升算法模型的魯棒性與準確性;通過推動國產大模型在金融領域的私有化部署降低對外部供應商的依賴。
在法律完善方面,黃震呼吁加快《人工智能法》等立法進程,明確算法責任歸屬與數據跨境流通規則。同時,他還建議建立AI倫理審查委員會對高風險應用進行前置性倫理評估,確保AI技術的健康有序發展。
在監管創新方面,黃震提出實施分類監管與場景適配的差異化監管策略。對于高風險類AI金融應用如自動化交易等需通過“監管沙盒”測試后方可落地推廣;對于基礎類AI金融應用如智能客服等則可適當放寬監管要求。此外,還建議建立跨部門協同機制與國家級風險預警平臺統籌應對技術、數據、網絡等多維度風險。
在行業協作方面,他強調構建“數據方-技術方-場景方”合作生態的重要性。通過促進跨機構數據共享與風險聯防提升整個行業的風險防控能力;通過加強金融機構能力建設與技術方協同創新推動AI金融應用的持續深化與拓展。
責編:陶紀燕 | 審校:李金雨 | 審核:李震 | 監審:萬軍偉





京公網安備 11011402013531號