![]()
作者 | 董道力
郵箱 | dongdaoli@pingwest.com
本周的AI項目,我們摘選了一批“給Vibe Coding擦屁股”的項目,也就是VibeSec類產品。
隨著AI Coding在代碼生產里的占比越來越高,“用AI來保證AI編程的安全”成為新的急迫需求。對應不同維度的風險,出現了一批不同的項目。以下是我們的梳理。
1
代碼生產的主力變成了AI
回望 2025 年,軟件開發第一次大規模進入一個新的狀態:代碼的主要生產者,不再是人。
自然語言取代了復雜的語法,直覺取代了邏輯。GitHub Copilot 的用戶數在一年半內翻了四倍,Cursor 日活破百萬,Replit Agent 每天處理著數百萬次“用一句話生成 App”的請求。路演現場和推特上,開發者們不再炫耀底層架構的精妙,而是競相展示兩個人如何用 AI 在三天內搓出一個 SaaS 產品。
然而,在一片生產力飆漲的歡呼聲中,安全問題成了被選擇性忽視的“房間里的大象”。
![]()
Karpathy 本人曾坦言:“我總是‘Accept All’,不再看 diff 了。代碼長到我看不懂,但它能跑。”這句話道出了問題的本質:傳統的代碼審核邊界已被徹底突破。 Georgetown 大學的研究顯示,48% 的 AI 生成代碼存在隱患;Veracode 的測試更指出,45% 的樣本包含 OWASP Top 10 高危漏洞。其中,Java 代碼的風險最高,失敗率高達 72%。
GitHub 與 Accenture 的研究顯示,88% 的 Copilot 生成字符被直接保留。當 AI 一秒鐘生成 100 行代碼時,開發者根本無暇逐行驗證。更致命的是,AI 埋下的往往不是編譯器能捕獲的語法錯誤,而是隱藏在看似有邏輯的 SQL 注入、不安全的反序列化操作,以及致命的供應鏈陷阱。當人類的審查速度永遠跟不上機器的生產速度,唯一的選擇是引入另一股力量——用 AI 對抗 AI,讓 Agent 監控 Agent。
這就是 VibeSec 的底層邏輯。這個新興賽道的爆發,對應著供需關系的徹底重構:當代碼供給從稀缺變為過剩,安全驗證從配套服務變成核心資產。它正在形成一個防御生態,不同的項目出現在其中不同的層級里。
1
1 輸入端攔截幻覺與注入
第一道防線聚焦于模型本身的安全性,攔截兩類即時風險:AI 的幻覺,以及黑客的提示詞注入。
Lakera
瑞士初創公司 Lakera 因攻克提示詞注入難題而聲名鵲起。
當黑客用角色扮演等方式誘導 AI 繞過倫理審查時,傳統防火墻已無能為力。Lakera 的武器是兩樣東西:一個龐大的對抗性指令數據庫,以及通過紅隊測試游戲 Gandalf 收集的全球數百萬真實攻擊樣本。這使其引擎能在推理發生前精準識別隱藏在上下文中的惡意意圖,甚至在模型即將泄露敏感數據時進行二次熔斷。
HiddenLayer
榮獲 RSAC 創新大獎的 HiddenLayer 專注于保護模型資產本身。
針對模型竊取和對抗性樣本攻擊,它獨創了機器學習檢測與響應機制。無需觸碰模型內部的黑盒參數,僅通過監控輸入輸出接口的統計特征與行為模式,就能實時阻斷逆向工程企圖。
這一層的核心是"智商對抗",用更聰明的 AI 來識別惡意的 AI 行為。
1
2 阻斷供應鏈依賴投毒
如果說第一層防的是 AI 本身的問題,第二層防的就是 AI"引狼入室"的風險。AI 編程最危險的場景之一,就是它會一本正經地推薦一個根本不存在或已被污染的依賴包。
Socket
由 a16z 領投的 Socket 徹底改變了防御思路:不再依賴滯后的漏洞庫,而是實時監控行為特征。
如果一個軟件包的維護者突然變更、代碼行數異常波動,或安裝時試圖連接不明服務器,Socket 會立即發出警示。這種"行為異常檢測"模式,有效阻斷了利用 AI 幻覺進行的供應鏈投毒。
Chainguard
獨角獸 Chainguard 選擇從源頭解決問題:提供一套經過嚴格加固的清潔鏡像。
這些鏡像移除了所有非必要組件,甚至刪除了 Shell,使攻擊者即便入侵也無工具可用。通過承諾零已知漏洞并強制執行簽名驗證,Chainguard 確保 AI 應用基于純凈且不可篡改的底座構建。
這一層的本質是"信任鏈管理",在代碼生成變得廉價的時代,干凈的依賴反而成了稀缺品。
1
3 用 AI 攻擊 AI 代碼
最后一道防線最為務實:既然 AI 生成的代碼可能有邏輯漏洞,那就用 AI 來主動攻擊這些代碼,看看能不能攻破。
CodiumAI (Qodo)
從 CodiumAI 重塑品牌而來的 Qodo,提出了“代理式測試”的激進理念。
其邏輯是:既然 AI 生成的代碼可能有邏輯漏洞,那就用 AI 生成包含極端邊界條件的測試用例,主動攻擊生成的代碼。而在 Java 領域,Diffblue 利用強化學習自動編寫單元測試,確保那些被 AI 快速生成的復雜業務邏輯,在后續迭代中不會發生功能回退。
這一層是"以攻代防",在機器與機器的博弈中,找出人眼看不見的邏輯缺陷。
1
國內 Vibesec 市場:對標國際,本土化突圍
視線轉回國內,隨著 Trae、Codebuddy 等國產 AI 編程助手的普及,同樣的安全需求正在爆發。不同于硅谷的百花齊放,國內廠商呈現出巨頭整合與垂直突圍并存的格局。
以奇安信為代表的傳統安全巨頭,正在通過“AI 降噪”來鞏固地位。其推出的 Q-GPT 安全機器人,核心邏輯是利用大模型強大的語義理解能力,來解決傳統靜態掃描工具高達 40%-50% 的誤報率問題。螞蟻集團也開源了其內部使用的 CodeFuse 架構,展示了如何在超大規模金融場景下,利用 AI 自動修復代碼漏洞。
在AI創業公司方面,一批技術型初創公司正在對標國際前沿。
墨菲安全
墨菲安全想做的是改變供應鏈安全的顆粒度。
在 AI 編程時代,Copilot 往往不會完整引入一個包,而是直接"復制粘貼"某一段函數代碼。傳統 SCA 工具因此失效。墨菲安全的護城河是其億級"代碼指紋庫",不依賴清單文件,而是直接對源代碼進行指紋比對。即便 AI 只是"搬運"了幾十行的核心邏輯,只要包含已知漏洞,就能通過指紋識別出來。
墨云科技
墨云科技則選擇了一條更具攻擊性的路徑:“以攻代防”。
在 AI 將代碼生產速度提升百倍的背景下,傳統的、按季度甚至按年進行的人工滲透測試已經完全跟不上版本的迭代速度。墨云科技的核心是用 AI 構建了“虛擬黑客”。
它自動化了攻擊鏈條,能夠像真實黑客一樣,對系統進行 24/7 不間斷的模擬攻擊。這在 Vibe Coding 時代顯得尤為關鍵:當開發團隊用 AI 瘋狂堆砌功能時,墨云科技的 AI 機器人正在另一端高頻驗證這些新功能的邊界。
思碼逸
思碼逸將目光投向更隱蔽的技術債務。如果說前兩者查的是"漏洞",思碼逸查的就是"體質"。
這家源自清華與伯克利科研團隊的公司,利用深度代碼分析技術建立了一套評估代碼質量與工程效能的量化體系。它能評估 AI 生成代碼的封裝性、復用度及認知復雜度。
在企業普遍擔憂 AI 代碼"能跑但不可讀"的當下,思碼逸提供了一套衡量代碼質量的標尺,幫助技術管理者決定是繼續讓 AI 寫代碼,還是必須停下來重構。
![]()
點個“愛心”,再走 吧





京公網安備 11011402013531號