7 月 15 日消息,隨著生成式人工智能技術的廣泛應用,安全問題也日益成為公眾關注的焦點。2023 年,微軟的一項研究揭示了一個令人擔憂的趨勢:黑客開始利用像微軟 Copilot 和 OpenAI 的 ChatGPT 這樣的人工智能工具,對毫無防備的用戶實施網絡釣魚計劃。

如今,網絡攻擊者變得更加狡猾,他們不斷想出巧妙的方法來繞過復雜的安全系統,以獲取未經授權的敏感數據。最近幾周,就有用戶精心策劃騙局,試圖降低 ChatGPT 的安全限制,誘使其生成有效的 Windows 10 激活密鑰。
Windows 用戶對微軟 Defender 并不陌生,這是一個復雜的安全平臺,旨在保護用戶免受黑客的惡意攻擊。然而據 Dark Reading 報道,安全研究公司 Outflank 的研究人員計劃在 8 月的“黑帽 2025”網絡安全大會上發布一種新型人工智能惡意軟件,這種惡意軟件能夠繞過微軟 Defender for Endpoint 的安全防護。
Outflank 的首席進攻專家負責人凱爾?艾弗里(Kyle Avery)在接受采訪時表示,他花了大約 3 個月的時間開發這種人工智能惡意軟件,并花費了 1500 至 1600 美元(注:現匯率約合 10759 至 11476 元人民幣)用于訓練 Qwen 2.5 大型語言模型(LLM),使其能夠繞過微軟 Defender 的安全防護。
有趣的是,這位專注于人工智能的研究人員還分享了他對 OpenAI 的 GPT 模型及其最新旗艦推理模型 o1 的見解。盡管他承認 GPT-4 相比 GPT-3.5 有了重大升級,但他指出,OpenAI 的 o1 推理模型具備了更復雜的功能,尤其擅長編程和數學。
艾弗里表示,DeepSeek 利用強化學習技術來提升其模型在廣泛主題上的能力,包括編程。因此,他在開發能夠繞過微軟 Defender 安全解決方案的人工智能惡意軟件時,也應用了這一理論。
研究人員承認,開發過程并非易事,因為大型語言模型主要通過互聯網數據進行訓練,這使得他難以獲取傳統惡意軟件來訓練人工智能驅動的等效產品。此時,強化學習發揮了關鍵作用。研究人員將 Qwen 2.5 LLM 置于一個安裝了微軟 Defender for Endpoint 的沙盒環境中,然后編寫了一個程序來評估該人工智能模型輸出規避工具的接近程度。
據艾弗里介紹:“它絕對不可能直接做到這一點。也許一千次中只有一次,它會偶然寫出一些能夠運行但無法規避任何檢測的惡意軟件。當它做到這一點時,你可以獎勵它生成了能夠運行的惡意軟件。”
“通過這種迭代過程,它會越來越穩定地生成能夠運行的惡意軟件,不是因為你向它展示了例子,而是因為它被更新得更有可能進行那種導致生成有效惡意軟件的思維過程。”
最終,艾弗里接入了一個 API,使模型能夠更方便地查詢和檢索由微軟 Defender 生成的類似警報。這樣一來,模型更容易開發出在繞過軟件安全屏障時不太可能觸發警報的惡意軟件。
研究人員最終實現了他期望的結果,成功利用人工智能生成了能夠繞過微軟 Defender 復雜安全解決方案的惡意軟件,其成功率約為 8%。相比之下,Anthropic 的 Claude 人工智能在類似測試中的成功率不到 1%,而 DeepSeek 的 R1 模型的成功率僅為 1.1%。
隨著人工智能騙局和惡意軟件變得越來越復雜,像微軟這樣的公司是否會加大其安全解決方案的力度,將是一個值得關注的問題。在當前形勢下,他們似乎別無選擇。





京公網安備 11011402013531號