![]()
12月18日,南都在京舉辦第九屆啄木鳥數據治理論壇。
AI是否存在泡沫?對AI技術的監管該嚴還是松?如何確保這項技術發展始終服務于人的福祉?這些有關AI的核心爭論,或許能從“上善AI”的理念找到解答方向。
12月18日下午,南方都市報、南都數字經濟治理研究中心在北京舉辦“第九屆啄木鳥數據治理論壇”,主題聚焦“AI安全邊界:技術、信任與治理新秩序”。十四屆全國政協委員、工業和信息化部原副部長王江平以《上善AI:以對齊求善治》為題發表主旨演講,他引用老子“上善若水”的理念,嘗試勾勒中國AI治理愿景。
王江平認為,當前國際AI治理理念分歧較大,陣營化趨勢明顯,迫切需要一種東方古老智慧統一治理愿景。國內AI監管同樣需要一套科學、敏捷的框架體系,來平衡AI發展其間的激進與焦慮。
AI系統向“智能實體”轉變,但治理領域進展有限
隨著AI技術的演進和產業應用,AI治理問題日益顯現。從AI生成“流浪漢入家”到AI仿冒名人帶貨,從AI換臉擬聲詐騙到未成年人過度沉迷聊天機器人……這些案例顯示,當AI技術能力不斷提升,安全邊界卻在模糊。
王江平在演講中提到,大模型加速落地的同時,由模型幻覺所引發的內容風險愈發成為熱點問題。自動駕駛、具身智能的發展,則讓人們注意到物理世界的安全風險。隨著AI智能體的崛起,內容生態風險、人機交互安全、行為安全風險日益凸顯,甚至可能帶來就業沖擊風險。
在王江平看來,AI安全風險正向內容生態、物理安全等各領域傳導,逐漸形成對經濟社會穩定等宏觀層面影響。AI安全風險呈現層級穿透態勢,并通過生態加速傳導。預計未來三到五年,AI領域性風險將呈現更多樣化的形態。
![]()
王江平發表主題演講。
需要關注的是,當AI系統從“技術工具”向“智能實體”轉變,正負面影響均將呈指數級擴大,但治理領域進展有限——“也就是,AI治理滯后于AI技術的發展。”王江平說。
為應對這種技術突破與治理的失衡,人機對齊成為智能時代的核心議題。所謂人機對齊,是指通過技術手段與倫理框架,確保人工智能系統的目標、行為和輸出與人類的價值觀、意圖及社會規范保持一致。
目前人機對齊技術已日益廣泛應用于模型訓練中。據王江平介紹,當前,大多數主流模型采用“基于人工反饋的強化學習(RLHF)、檢索增強生成(RAG)技術。前者的主要原理在于,將人類偏好轉化為獎勵信號,指導模型生成更符合人類需求和期望的內容。后者則強調,根據用戶需求,先從預訓練的文檔索引中檢索出有用信息,再利用這些信息強化模型的生成過程,以提高輸出的準確性、可靠性和可解釋性,減少模型“幻覺”。
盡管人機對齊是AI發展的核心目標之一,但在實踐中仍面臨諸多挑戰。王江平表示,價值觀的復雜性與動態性,使得為AI系統設定一套普適且可操作的價值目標函數變得極其困難。從技術實現的角度看,數據偏差可能導致AI輸出歧視性內容。出于節省因對齊產生的算力成本開銷等考慮,一些模型公司也可能因此降低對齊水平。
“如果對齊的速度跟不上AI發展,甚至有可能出現由技術領先者單方面定義人類價值觀,這個風險是很大的。為此,治理和監管就顯得非常重要。”王江平說。
用東方智慧平衡AI發展的激進與焦慮
2023年,英偉達首席執行官黃仁勛提出,每個國家都需要擁有自己的AI基礎設施,以便保護自己的文化和經濟安全。此后,主權AI成為科技乃至國際關系領域的一個熱門詞匯。
AI模型訓練數據,不可避免地包含了特定國家、特定文化的元素。在不同國家和地區推廣應用時,大模型也自然會體現出各自的特色。在王江平看來,AI要服務于本國利益,就離不開對本國文化對齊的問題。文化對齊的基本范疇往往包括價值觀、制度、哲學,也包括藝術、語言、習俗等等。
具體而言,在價值對齊層面,王江平認為,應理解并適配人類價值觀的多元結構,以“共通底線+多元分支+動態演變”為根本原則。在制度對齊層面,通過法律、法規、標準與倫理準則等工具,將AI的發展與應用約束在符合社會共識的框架內。哲學對齊是界定人機共生的底層邏輯,其核心是在智能時代重新定義“人類的位置”,劃定“不可逾越的底線”與“合理探索的邊界”,確保AI始終服務于人類的根本利益。
如何直面人與AI共生的根本命題?又該怎么應對當前AI對齊挑戰?王江平從老子“上善若水”智慧中受到啟發,呼吁“上善AI:以對齊求善治”,嘗試勾勒中國AI治理的愿景。
![]()
王江平發表題為《上善AI,以對齊求善治》的演講。
“上善AI,意為最高級別的AI。我在翻譯英文的時候,沒有叫‘The best AI’,而是‘The Tao of AI’。”王江平說,之所以這樣翻譯,是因為道家學說具有深刻的國際影響力,要推動中國AI治理理念全球化,這更能體現中國文化的生命力。
在王江平看來, “上善若水”精神內核為中國AI倫理治理指明了方向。把老子智慧融入AI治理中,他認為有三點非常重要:一是“敏捷治理”,這需要與時俱進,既管住要害又留足創新空間;二是AI治理法規,包括綜合性法規和重點領域的法規;三是“四位一體的框架體系”,即自律、社會監督(行業倫理委員會、第三方檢測評估)、行政部門監管和司法,缺一不可。
“上善AI的理念能提供一個更平和、更有生命力的思考框架,正如水能穿石、能匯江海、能以柔克剛,AI的發展正需要這樣一種東方智慧來平衡其間的激進與焦慮。”王江平說。
堅守人的主體性,確保AI服務于人的全面發展
從“道”的哲學走向應用層面,如何運用上善AI的理念看待實際問題?王江平在分享中梳理了當前AI領域的幾大爭論,并逐一解析。
由于技術、資源、能力或治理水平的差異,不同國家和地區、企業和群體之間對AI技術的掌握和應用能力也表現出差異。AI時代的“智能鴻溝”問題引發高度關注。
王江平提到,技術壟斷企業掌握先進AI技術和大量數據資源,在AI治理中可能追求自身利益最大化,而弱勢群體在AI發展中面臨技術鴻溝、就業沖擊等問題,兩者在AI治理規則制定和利益分配上存在顯著分歧。
如何避免AI鴻溝,讓更多人共享技術紅利?王江平主張遵循“天之道,損有余而補不足”:通過開源共享、技術轉移和能力建設,填平AI鴻溝,讓技術像水一樣滋養各地,不偏袒、不遺漏。
談及對AI技術應該松監管還是嚴監管,王江平認為,治大國若烹小鮮。對于技術發展不應過度干預,而是通過建立穩固的倫理底線和原則性指導,為創新留出生長空間。“當前中美人工智能之間的博弈,是一場雙方都輸不起的競爭。”
“速度”與“泡沫”一直是前沿產業發展過程中需要把握和平衡的問題。當全球投資涌向AI賽道時,“AI泡沫論”也隨之升溫。“泡沫”論者認為,當前AI領域存在資本高度集中、“循環融資”風險、商業模式不清等問題,反方則強調,AI尚處于AI投資繁榮與泡沫的過渡階段。
如何看待AI投資泡沫?王江平認為,真正的泡沫是“五色令人目盲”的狂熱,其應對之道在于“見素抱樸”,回歸事物的本質,關注技術是否解決真實問題,以“真需求”擠壓泡沫。如果沒有回應社會真實需求,那確實就是泡沫。”
更進一步,如何將上善AI理念付諸實踐?王江平表示,這需要多方共同努力。對于開發者與企業,他建議在算法設計和產品理念中嵌入“利而不爭”的思維。這意味著,需優先考慮技術的普惠性和社會價值,而不僅僅是商業回報。
對于監管機構,他認為治理應像水一樣,柔而克剛。設定明確的倫理和安全邊界(如“人機對齊”框架),但在具體技術路徑上保持包容和開放,鼓勵試錯。
對于整個社會,王江平提到,應共同培養水的品格——保持開放心態學習AI知識,同時堅守人的主體性和價值觀,確保技術最終服務于人的全面發展。
出品:南都數字經濟治理研究中心
采寫:南都N視頻記者李玲 發自北京





京公網安備 11011402013531號