“安全是最大的豪華。”何延哲拋出這句出自新能源汽車圈的口號,提醒AI行業的從業者:在安全問題上稍有失足,有可能導致滿盤皆輸。
何延哲來自中國電子技術標準化研究院,長期關注網絡安全。他在12月18日南都“第九屆啄木鳥數據治理論壇”上表示,安全性的價值在于,把好用的AI產品變得讓公眾敢用。
2025年,AI加速向物理世界滲透。從可以拍照和“看一下支付”的AI眼鏡,到能夠自主點外賣的AI手機,再到準備去工廠、進家庭的具身智能機器人,AI應用落地的想象空間被打開。
當許多人沉浸于技術變革帶來的新奇感時,一些網絡安全的從業者則追問和驗證:炫酷的AI產品究竟安全可靠嗎?
![]()
12月18日,南都“第九屆啄木鳥數據治理論壇”的圓桌討論環節。圖:南都
具身智能安全防護機制“千瘡百孔”
對AI硬件產品的安全測試結果并不樂觀。
網絡安全研究機構DARKNAVY·深藍的肖軒淦提到,利用安全缺陷,植入攻擊代碼,就能讓一款市面上熱門AI眼鏡變成“無感偷拍”的工具。部分眼鏡的“看一下支付”功能,基于采集用戶語音并通過聲紋匹配來核驗轉賬。但如果攻擊者利用智能眼鏡的安全缺陷,取得其完全控制權,可能可以竊取并偽造用戶聲紋,暗中完成轉賬支付。
肖軒淦和團隊成員還對具身智能機器人做過安全測試,他形容該行業的安全防護現狀可謂“千瘡百孔”。某些機器人中存在多種安全缺陷,可以被攻擊者劫持,對外在對象做出攻擊性動作。
“如果機器人打了人,這一拳下去打破的將是一個產業。”何延哲認為,如果發生這樣的事故,民眾對產品的態度會發生巨大的轉變,各種各樣的非議也將隨之而來。
![]()
2025年10月24日的“GEEKCON2025”安全極客大賽現場,安全研究員操控某品牌機器人攻擊假人。圖:活動主辦方
然而,肖軒淦發現,許多AI新興領域的創業公司,對安全價值的理解認知缺位嚴重。此前第三方白帽黑客向廠商報告安全漏洞,部分廠商對此漠然以對。他還留意到,被測試的智能眼鏡廠商和具身智能公司,有的直到今年下半年才組建安全團隊,有的迄今沒有專門的產品安全團隊。
肖軒淦認為,AI創業公司起步階段,會把產品的功能作為優先目標,但是在發展過程中必須考慮把安全的基座筑牢、正確認識安全的價值。很多廠商將安全僅視為成本和負擔。但事實上,把安全做好了也能成為一項核心競爭力、創造新的商業價值。某些頭部企業已經用實際行動證實了這一點。
AI手機智能體,“一次突進”
12月以來,豆包助手掀起輿論風浪。這款AI手機助手先是撞上多家國民級App的“風控墻”,隨后選擇妥協,關閉對一些大廠旗下App的操作能力,以獲取這些應用解除對設備登錄的限制。
豆包助手引發的爭議集中于兩個方面:系統級操作權限的調用,對用戶隱私安全的潛在風險有多高?當手機助手成為流量入口,又會如何攪動現有的互聯網競爭格局?
在肖軒淦看來,豆包通過與手機廠商合作,搖身變成一款系統級超級應用,獲取到了對應的系統級權限。由于手機系統已經提供了一定的基礎防御能力,調用的這些權限也屬于系統級應用的特殊權限,因此安全風險存在但總體可控。然而,沒有絕對的安全,黑灰產依然有可能利用安全缺陷,侵害用戶隱私,這需要手機廠商和智能體廠商不斷提高安全防護壁壘。另外,在部分場景下,智能體背后的大模型需要在云端進行推理,“上云”的數據也有被攻擊突破的隱患。
豆包助手發布后一周的12月8日,中國網絡空間安全協會人工智能安全治理專委會專門召開“AI助手安全合規”研討會。根據會議新聞稿,當天,有來自華為、小米、OPPO、vivo和抖音等單位的20余名專家參加。
中國網絡空間安全協會人工智能安全治理專委會副秘書長夏文輝參與了這場內部研討會。在前述南都的論壇上,夏文輝把豆包助手定義為由AI輔助向智能代理的“一次突進”:目前App廠商與豆包助手圍繞著權限安全為表層邏輯所發生的矛盾,體現的是利益和生態的強烈摩擦,以及對合規的迫切訴求。
鑒于AI助手與端側應用結合的大勢所趨,夏文輝認為,對AI手機助手的監管既要避免“一刀切”地嚴管,又不能放任其野蠻生長。現有的法規及標準有待相應明確,也需要針對新的技術和應用補足政策法規。
熊定中為終端廠商和互聯網企業這些手機智能體生態中的主體提供過法律服務。作為北京清律律師事務所首席合伙人,他從中看到不正當競爭的風險:有的App廠商在意的是,當用戶發出指令,比如買咖啡或點外賣的時候,AI助手為何調取這款App,而不是調取另外一款App?如果用戶沒有清晰指定App,那么決策權就交給了手機助手。
流量入口轉移導致智能體廠商和App廠商之間的博弈,但熊定中發現,用戶意志在這場激烈討論中缺位了。他認為,用戶對于App內個人數據的權利究竟具有最高位階,還是與App廠商處于平等地位,這仍是一個有待厘清的基礎理論問題。
清洗AI標識的黑灰產隱現
AI安全風險不僅涉及像具身智能、AI眼鏡、AI手機這些硬件產品的安全隱患,也關乎認知層面的安全——比如,保障用戶對AI生成內容的知情權。
今年AI治理的一項監管重點是給AI內容“上身份”。3月中旬,《人工智能生成合成內容標識辦法》對外發布,全國多個城市隨后開展AI生成合成內容標識政策法規宣介活動。這項AI標識新規要求必須給AI生成的內容添加人眼可見的顯式標識,以及不易被用戶明顯感知到的隱式標識。
何延哲表示,隱式標識不是給普通用戶看的,而是給監管看的,主要用于追蹤和識別濫用AI生成內容的情況。
MiniMax早在2024年就作為試點平臺,參與了標識辦法和配套強制性國家標準的技術驗證,對添加標識方法進行了探索。MiniMax稀宇科技總編輯、副總裁彭韜認為,AI標識規定起草過程中,已充分吸納了企業的意見,在技術實施難度、成本控制上具有可行性。
彭韜說,隱式標識的規定,一方面是為了滿足監管要求,另一方面對企業自身而言,也將成為保障內容安全、版權與商業利益的有益手段。
南都12月18日發布的《生成式AI落地應用:透明度測評與案例分析報告(2025)》(下稱《報告》)提到,強監管下,AI生成內容標識成標配,各家大模型在添加標識方面明顯改進。
據夏文輝觀察,擁有完備合規流程的大廠在AI標識落地上普遍做得不錯。初創企業,特別是新生、規模小的企業的合規仍需要跟進落實。
但彭韜發現,實踐中,已出現專門做清洗AI隱式標識的黑灰產團隊,相關黑灰產從業者在社交平臺群聊中傳播這種清洗工具。
南都記者注意到,網絡上出現一些打著“去除AI標識水印”旗號的工具。這些工具的提供商還聲稱可以通過清洗,讓內容無法被AI檢測工具識別到。
![]()
網絡上一款宣稱可以去除AI水印的工具網站。
彭韜還提到,隱式標識的技術本身仍存在不穩定性,在內容傳播過程中易發生損耗。因此,要真正讓AI標識的落地達到制度設計初衷,還有較長的路要走。
AI陪伴對青少年“不是洪水猛獸”
AI陪伴產品應用如雨后春筍般涌現,“虛擬陪伴”產業已然成型。但隨著多起青少年自殺等極端案例出現,AI陪伴產品開發商陷入輿論漩渦,人機互動遭遇倫理考驗。
前述南都《報告》梳理發現,目前已公開的訴訟涉及多個知名AI平臺,其中以Character.AI和ChatGPT開發商OpenAI為主要被訴對象。涉訴AI平臺被指控的行為主要集中在誘導自殺、教唆自殘暴力與激化家庭矛盾、傳播涉及性虐待與精神操縱的內容等類型。
國內在2025年也出現針對AI陪伴產品的監管案例。6月19日,知名AI陪伴產品“筑夢島”App因生成低俗擦邊內容,危害未成年人身心健康,被上海市網信辦約談。
極端案例驅動AI陪伴公司進行整改,比如上線防自殘提示、檢測自殺傾向,設置未成年人模式或直接取消對未成年人提供服務。
彭韜認為,AI技術不是洪水猛獸。對青少年來說,并不是一味地將其與AI產品隔離開就萬事大吉。無論AI公司還是監管部門,更應該做的是告訴青少年如何正確使用AI,開展各類宣傳和教育工作提升其AI素養。
在AI平臺的青少年保護合規舉措上,彭韜介紹稱,MiniMax的做法大體可分為兩方面:一方面,對未成年人模式、未成年人使用AI設置時間限制等傳統的管理舉措,公司“照單全收”;另一方面,利用AI能力、結合合規獲取的用戶數據,去分析用戶的行為特征,從而盡可能地主動識別出未成年人群體。
記者注意到,MiniMax旗下的“星野”App設有未成年模式,開啟之后,每日22點至次日6點的深夜時段禁止用戶使用。
AI版權訴爭膠著,如何尋找共贏路徑?
前述南都“第九屆啄木鳥數據治理論壇”的圓桌上,AI版權治理也是一項備受關注的話題。
從模型輸入端到輸出端,AI版權案件的爭議集中在三個方面:其一,未經授權將版權保護的內容作為訓練數據是否構成合理使用;其二,模型輸出的內容是否侵犯既有內容的版權,及AI平臺在當中的責任認定;其三,AI生成的內容能否受到版權法的保護。
生成式AI浪潮持續演進的過去三年里,上述第二項和第三項爭議基本上有了較為明確的司法判斷,盡管不同法院的觀點可能存在差異。但關于輸入端的侵權問題,產生實質性進展的案例依然少見。圍繞著能否免費使用版權保護的內容,版權權利人與AI公司之間爭論不休。
![]()
AI公司在美被訴版權侵權案件數量統計。圖:南都《生成式AI落地應用:透明度測評與案例分析報告(2025)》
根據前述南都的《報告》統計,截至2025年11月18日,美國已至少發生56起AI版權的訴爭。其中超過50起案件都涉及AI模型輸入端和輸出端版權侵權案例。而在中國,目前至少有兩起AI訓練數據版權案件在北京互聯網法院審理。
熊定中是其中一起AI數據訓練版權案件的代理律師。他和一些文藝創作者接觸下來發現,這些群體之所以對AI恐慌,是擔心AI生成的內容對既有作品產生“替代性效應”,“著作權人感受到的是毀滅性的打擊”。
AI公司和一些法律專家則認為,若嚴格按照傳統的授權許可使用機制,由于訓練數據規模海量,不僅授權執行難度大,而且還可能導致授權費用過高而阻礙AI產業的發展。版權人與AI公司持續拉扯下,如何平衡二者的利益成為迫切課題。
熊定中認為,無論是立法還是司法,都應當確保AI公司給予相關經濟上的對價,不管是以賠償還是補償的名義。當然,這種對價到底如何衡量和定價,依然是后續的棘手難題。
彭韜提到,現實的瓶頸在于:AI公司對于高質量數據具有明確需求,但如何保障企業充分合規獲取優質數據以推動技術發展,無論是政策法規還是市場機制都需要進一步創新突破。“作為企業,我們希望可以沒有顧慮地合規獲取數據資源,但是人工智能技術對于數據要素的生產利用有其獨特性,目前傳統數據保護和版權保護機制還存在一些無法完全匹配的地方,期待各方共同探索解決”。
在接連不斷的AI版權糾紛當中,一些案件已達成和解,“以訴促和”的做法越發明顯。比如10月下旬以來,華納音樂、環球音樂等知名音樂廠牌結束與Suno和Udio這兩家AI音樂平臺的訴爭。和解的前提是簽訂授權許可協議。
另外,還有版權方和AI公司在未發生訴訟的情況下主動開展授權合作。12月11日,迪士尼與OpenAI達成10億美元的股權投資,并將旗下200多個動漫角色授權給后者的Sora使用。據報道,OpenAI不用向迪士尼繳納現金授權費,而是以股票認股權證的形式支付對價。
彭韜贊賞迪士尼與OpenAI的合作范式,認為這是一起典型的實現共贏的案例。
“通過IP授權、創作分成等多元化市場手段代替司法訴訟,這可能是更有利于AI企業和技術發展的一條道路,也可以為數據版權方拓展更豐富的市場應用模式。我們也希望能跟數據提供方形成利益共享的良性合作機制。”彭韜建議,可以在有關部門指導下,聯合AI公司、版權提供方和數據交易機構等多方主體,針對一些現有法律規則尚不明確的環節開展沙盒試點,共同探索解決方案,打造示范案例。
出品:南都數字經濟治理研究中心
采寫:南都N視頻記者 楊柳 發自北京





京公網安備 11011402013531號