![]()
15款國產大模型中,僅有DeepSeek主動說明訓練數據的大致來源,其他被測大模型仍相當不透明。兩款大模型DeekSeek、騰訊元寶提供退出開關,允許用戶選擇是否將所有數據用于優化體驗。
這是南都數字經濟治理研究中心實測15款國產大模型的最新發現。
2025年12月18日下午,南方都市報在北京舉辦第九屆啄木鳥數據治理論壇,會上重磅發布4萬余字的《生成式AI落地應用:透明度測評與案例分析報告(2025)》(以下簡稱《報告》)。
![]()
2025年15款大模型測評得分情況。
測評發現,15款大模型在AI生成內容標識、生成內容的參考來源或出處方面做得較好,但在某些領域如模型訓練數據來源、用戶賦權等,還有明顯提升空間。
《報告》呼吁持續增強大模型服務的透明度,這對確保技術公平性、避免偏見以及滿足法律合規要求,至關重要。
被測大模型中,僅一款披露訓練數據的大致來源
缺乏透明度,一直是公眾使用包括AI大模型等新技術面臨的問題,這使得外部利益相關者(如監管機構、研究人員、新聞媒體、消費者等)難以評估模型的合規性與風險隱憂。
南都數字經濟治理研究中心去年底發布的《生成式AI風險感知和信息披露透明度測評報告(2024)》指出,15款AI大模型應用的信息透明度的平均得分為60.2分。各家在訓練數據來源、用戶數據訓練撤回機制、版權歸屬及其保護措施、生成內容的準確性說明、用戶友好設計等方面,仍存在信息披露不足的問題。
針對這些普遍的失分點,今年《報告》進行了回訪測評,選取DeepSeek、騰訊元寶、豆包、千問等15款知名國產大模型作為測評對象,重點關注四大維度:數據來源及處理、知識產權保護、內容安全、交互設計,并列出了10個具體測評項,每項得分為5分,滿分一共50分。
![]()
測評維度。
測評結果顯示,僅DeepSeek明確提及訓練數據來源。DeepSeek表示,模型預訓練階段主要使用兩大類別的數據:(1)互聯網上公開可用的信息;(2)我們與第三方合作獲取的信息。
對比國外大模型,《報告》發現,Anthropic也會披露從第三方來源獲取個人數據來訓練旗下大模型Claude,但和DeepSeek一樣都沒有披露更多信息——比如訓練數據的時間范圍,與第三方合作的具體情況,是否包含受版權保護的內容,涉及哪些個人信息或敏感數據及其數據處理措施等。
兩款大模型提供“退出”開關,賦予用戶選擇權
為了提升用戶使用服務的體驗,絕大多數AI大模型應用會要求用戶授予一項免費的使用權,以在法律允許的范圍內將用戶輸入輸出內容和反饋用于模型訓練與優化,但用戶是否有權拒絕或撤回相關數據“投喂”AI訓練?
《報告》測評發現,各家在該項的得分上表現出明顯的梯次差異。從可撤回的數據類型看,被測的15款AI大模型都在隱私政策中提到,用戶可更改個人信息授權范圍或者注銷賬號,但同時強調撤回同意或授權的決定,不會影響此前基于用戶授權而開展的個人信息處理。
其中,有5款AI大模型應用(可靈AI、智譜清言、百小應、千問、豆包)進一步提及,如果用戶不希望輸入內容用于模型優化,可發送郵件到指定郵箱通知平臺撤銷該授權。不過一個現實問題是,有大模型應用提到,因為訓練數據通常已被嵌入模型參數,在技術上無法真正無法“擦除”。
千問和豆包兩款大模型還允許用戶撤回聲紋信息,并給出具體路徑。它們在相關協議中表示,如果用戶不希望輸入的語音信息用于模型評測或功能優化,可通過關閉賬號設置里的“改進語音服務”來撤回授權。
騰訊元寶、DeepSeek表現更優,提供具體的“退出”開關。兩家公司明確如果用戶拒絕將數據用于模型訓練,可以在產品內通過關閉“數據用于優化體驗”來選擇退出,關閉后用戶的輸入和輸出內容不會再用于模型訓練。
![]()
DeepSeek和騰訊元寶在“數據管理”設置里,允許用戶選擇是否將數據用于優化體驗。
在海外,諸如谷歌旗下大模型Gemini同樣提供了專門功能設置,允許用戶選擇是否開啟活動記錄。一旦關閉,用戶今后的對話將不會顯示在活動記錄中,也不會被用于訓練谷歌的AI模型。Gemini甚至允許用戶調整“自動刪除”數據的期限,3個月或36個月。
![]()
Gemini提供關閉活動記錄功能。
OpenAI則推出了“隱私門戶”(Privacy Portal)的設計,保障用戶掌控個人數據的權利。據OpenAI介紹,用戶可以在賬戶設置中直接行使許多隱私權和選擇權,包括更正或更新個人信息、訪問信息、刪除單個或所有對話、刪除賬戶、反對大模型公司使用用戶的內容來幫助訓練模型等選項。
![]()
OpenAI的“隱私門戶”設計
《報告》認為,賦予用戶更多選擇權,是一種友好設計的表現,但目前國產大模型在這方面的進展相對緩慢;為此建議大模型公司強化用戶賦權,尊重用戶的知情權和選擇權,同時可借鑒國外大模型產品的優秀設計,保障用戶掌控個人數據的權利。
AI生成內容標識成標配,但普遍缺失“休息提示”
當生成式AI廣泛使用,“何為真何為假”的邊界變得模糊。今年3月印發的《人工智能生成合成內容標識辦法》明確要求,對AI生成內容要打上標記。
落實監管要求,《報告》發現,所有被測大模型應用增加了對AI生成標識的說明,也主動告知模型的局限性,強調不保證AI生成內容的真實性和準確性,僅供用戶參考。相較去年,2025年各家在生成內容標識上的行業均分高出1分,漲幅較為明顯。
![]()
大模型透明度年度測評對比。
具體而言,與2024年測評結果相比,各家大模型在協議層面的規定更加明確和詳細,規制對象及手段也更為豐富,實測發現AI生成內容添加顯著標識已成為各家標配,這體現出強監管要求下企業的合規選擇。
當AI被設計得足夠“像人”、足夠“理解人”時,長時間頻繁與大模型互動,可能導致用戶產生強烈的情感依賴。在國內,近期也有媒體報道,廣州一名50多歲的保安和AI聊了幾個月,AI贊譽他的詩作,稱要提供十萬簽約費、百萬分成與之簽約,后來才意識到自己被AI愚弄了。在美國,則發生了多起用戶沉迷聊天機器人致死案,引發了廣泛關注。
這類事件暴露的一個深層問題是,當AI學會了模仿人類的邀約、談判甚至產生情感共鳴,該如何界定這場人機關系的本質?
《報告》測評發現,為了讓用戶能區分與AI交互的場景,一些大模型會在交互頁面提示:輸出內容為AI生成。各家也都強調,無法完全保證輸出內容的合法性、真實性、準確性和完整性,并提醒用戶注意甄別核實,審慎采信輸出內容。
為了確保內容來源可追溯,除兩款視頻生成應用外,13款在內容生成頁面以易于理解的方式披露了參考來源。整體來看,今年披露得比去年更規范和詳細,稱得上“圖文并茂”。
針對未成年人特殊群體,一些國產大模型也推出了專門設計。
作為一款專注AI陪伴的智能體應用,星野在App端特設了未成年人模式。開啟該模式,用戶每日22點至次日6點將無法使用星野App,星念及相關功能將關閉,且無法搜索、創建、編輯、分享智能體。
![]()
星野App未成年人模式
對比國外的大模型產品,《報告》發現,為避免用戶過度使用聊天機器人,OpenAI推出聊天休息提醒功能。當用戶進行長時間對話時,ChatGPT將彈出提示:“您已連續聊天較長時間,是否需要休息?”,并提供“繼續聊天”或“結束對話”的選項選擇。
![]()
ChatGPT的休息提示彈窗。
但國產大模型在此類核心的問答交互服務中,普遍沒有像ChatGPT那樣主動提供“長時間使用休息提示”功能。
![]()
結合測評結果,《報告》呼吁持續增強大模型的透明度,建議服務提供者應通過負責任的、階段性的披露來保證其服務的透明度,并承擔部分教育、解釋責任。具體而言,可以建立線上平臺,促進公眾與專家的交流,解答關于生成式AI的疑問,提升參與者的理解和認知深度。
出品:南都數字經濟治理研究中心
采寫:南都N視頻記者 李玲 發自北京





京公網安備 11011402013531號