
在2025年“兩會”期間,全國政協委員、360集團創始人周鴻祎聚焦大模型安全與 “幻覺” 問題。他認為,以DeepSeek為代表的國產大模型取得了“國運級科技成果”。DeepSeek憑借技術范式革新和性能優勢躋身全球大模型第一梯隊,其開源、透明、免費等特質,推動大模型加速走進百行千業,不僅促進技術自主創新,帶動上下游產業協同發展,更成為推動中國科技進步、經濟增長和國家強盛的關鍵力量。
然而,隨著大模型應用愈發廣泛,安全問題日益凸顯。周鴻祎指出,大模型存在幻覺、內容安全等諸多問題,無法通過傳統安全方案有效化解。未來,各類專業、垂直、場景大模型將連接內部知識庫,以智能體形式在政府機構和企業中廣泛部署。一旦基座模型、知識庫或智能體任一環節出現安全隱患,極有可能誘發系統性風險。
周鴻祎建議,一方面推動安全技術創新與成果轉化,鼓勵具備“安全+人工智能”解決方案的鏈主企業,基于安全大模型技術開展研發,將安全要素嵌入人工智能應用全流程;另一方面,組建人工智能大模型安全聯盟,實現聯盟內技術成果共享,共同測試產品與服務,成熟后向市場推廣,助力大模型安全保障普及。
此外,對于大模型的“幻覺”問題,周鴻祎表示,“幻覺”是大模型與生俱來的特點,不可消除,卻決定著其創造力和想象力,對實現通用人工智能(AGI)至關重要。在科研領域,“幻覺”能“想象”新藥分子結構、蛋白質結構等,為新研究指引方向。在醫療、法律、金融等對準確性要求高的領域,雖可能出錯,但可利用RAG(檢索增強生成)技術,通過比對專業知識庫、網絡實時信息等方式矯正。
周鴻祎建議,借鑒“避風港原則”成功經驗,對大模型及相關產品和服務實施柔性監管,適度包容“幻覺”,對于一般性失誤,避免直接關停下架,給予企業自我糾正機會,促進企業大膽創新、放手競爭,爭取讓更多企業“復制”DeepSeek的成功。





京公網安備 11011402013531號