方興未艾的人工智能(AI)正引發越來越多的關注。2025外灘年會上,法蘭西倫理政治科學院院長、歐洲央行原行長特里謝在致辭中表示,以AI為代表的新興技術,正讓國際社會面臨有史以來最重要的挑戰。
而在隨后談及金融領域的AI治理與國際合作話題時,法蘭西銀行副行長阿格尼絲·貝納西-奎里在肯定AI帶來效率顯著提升的同時,著重從風險角度探討了為何歐盟AI監管超前的問題。
“很多人覺得,歐盟在AI創新方面是落后者,但在AI監管方面卻走在了最前面。因此,讓一個歐洲人來聊這個話題,有點出人意料。”不過,阿格尼絲強調,2024年正式立法的歐盟《人工智能法》,其核心就是監管。
阿格尼絲基于監管框架,將AI系統依據風險程度分為四類:第一類是不可接受風險,如社會信用評分體系,這類風險是被直接禁止的。第二類是高風險,對健康、安全或基本權利有重大影響的情況。第三類是有限風險,需告知用戶正在與AI系統互動。第四類是最小或無風險,這方面沒有監管要求。
![]()
阿格尼絲表示,如同其他金融機構一樣,法蘭西銀行也在開展許多AI項目,例如在反洗錢與反恐融資監管方面,“我認為歐盟正在構建一個可信賴、完整的AI體系,并從一開始就制定統一規則”。
在實際應用中,阿格尼絲認為AI系統存在另外三重風險:網絡風險、服務商高度集中的風險、“可解釋性”風險。
“我們已經看到,網絡攻擊的頻率和復雜程度大幅增加。金融機構承受了全球大約一半的網絡攻擊,因為它們高度互聯,所以這是一個系統性的風險來源。”阿格尼絲稱。
服務商高度集中會導致操作風險及市場反應趨同,“服務商高度集中,如果服務商發生故障,金融市場會怎樣?同時,因為行為相關性提高,市場反應趨同,交易速度加快,這可能增加‘閃崩’的發生頻率。”
而所謂“可解釋性”風險,阿格尼絲表示,如果決策完全依賴AI而缺乏人工驗證,可能導致訴訟風險、責任風險,以及決策的不穩定性和不一致性。
阿格尼絲認為,AI是一柄雙刃劍,既提升了監管者監測風險的能力,同時也增強了風險本身的潛在影響力。在這個意義上,她總結稱:“歐盟在人工智能監管方面一直非常積極——也許被認為是‘苛刻’,但我們確立了標準。我們也希望其他國家能展示他們將如何確保人工智能的發展遵循這些基本原則。”





京公網安備 11011402013531號