9月16日,在第22屆中國網絡安全年會(暨國家網絡安全宣傳周網絡安全協同防御分論壇)上,國內首次針對人工智能大模型的實網眾測檢驗結果正式發布,大模型特有漏洞177個,占比超過60%。
此次活動由中央網信辦網絡安全協調局指導,國家計算機網絡應急技術處理協調中心主辦,相關平臺和基地提供技術支持。活動發布了國內首次針對AI大模型的實網眾測檢驗結果,共動員559名白帽子,對國內15款大模型及應用產品進行了全面漏洞測試。測試產品涵蓋基礎大模型、垂域大模型、智能體、模型開發平臺等多種類型,既包含單模態大模型,也涵蓋多模態大模型,具有廣泛的代表性。
從結果來看,騰訊混元大模型、百度文心一言、阿里巴巴通義APP、智譜華章智譜清言等產品發現的漏洞風險較少,展現出較高安全防護水平。活動還涌現出梁宏宇、馬寶新、劉銘等一批優秀白帽子,他們涵蓋網安企業人才、科研院校師生及社會人士,從外部攻擊者視角完成多維度實戰化測試,即便在廠商防護下仍挖掘出高危及嚴重等級漏洞,彰顯專業能力與奉獻情懷。
值得關注的是,本次活動累計發現各類安全漏洞281個,其中大模型特有漏洞177個,占比超60%,凸顯AI大模型面臨傳統安全領域之外的新興風險。典型漏洞風險包括部分產品不當輸出類漏洞危害嚴重、信息泄露類漏洞多發、提示注入類漏洞普遍、無限制消耗類攻擊防護不足及傳統安全漏洞仍存等。鑒于AI大模型用戶量大、使用率高,此類漏洞若被惡意利用,將嚴重影響國內AI大模型產品生態。
對此,活動明確AI大模型安全治理需各方發力,持續加強安全防護措施應對各類漏洞風險,加快制定AI漏洞分類分級及場景風險等級標準,通過眾測模式匯聚社會白帽力量構筑共治生態,加強內生安全治理并將安全融入AI系統全生命周期。
業內人士指出,隨著人工智能應用場景不斷拓展,新的風險和攻擊方式仍將持續出現,AI大模型安全治理工作任重道遠,亟需各方共同努力。未來,針對大模型面臨的各類漏洞風險,需持續加強安全防護措施。同時,加快制定AI漏洞分類分級標準,并按應用場景劃分風險等級。通過眾測模式廣泛匯聚社會白帽力量,構筑AI共治生態。還要加強內生安全治理,將安全融入到AI系統全生命周期,從源頭筑牢安全基石。
都市時報
全媒體記者:鄭榮行
編輯:姜蕾
審核:王海濤
二審:陳唯一
終審:付曉海





京公網安備 11011402013531號