10月18日,一則消息在微信群內廣泛流傳,聲稱某頭部大廠的大模型訓練遭遇實習生入侵,注入破壞代碼,導致訓練成果不可靠,可能需重新進行。據稱,此次入侵涉及的代碼覆蓋了8000多張卡,潛在損失或超過千萬美元。

有媒體從知情渠道獲悉,該大廠實為字節跳動,事件發生在今年6月。一名在某高校就讀的博士生在字節跳動商業化技術團隊實習期間,因對團隊資源分配心生不滿,利用攻擊代碼破壞了團隊的模型訓練任務。
傳聞指出,這名實習生利用了HF(Huggingface)的漏洞,在公司的共享模型中寫入破壞代碼,致使模型訓練效果不穩定,AML團隊難以查明原因。目前,該實習生已被辭退,且字節跳動已將此事通報給大模型行業聯盟和實習生所在學校。然而,被辭退后,該實習生仍在多處“辟謠”,試圖推卸責任。

一位技術安全專家向媒體表示,HF漏洞的產生通常與單一性集中訓練有關,此次事件暴露出字節跳動在技術訓練中的安全管理問題。公司既未實施權限隔離,也未做好共用代碼的審計工作。在正常情況下,每次大的代碼變動都應進行審計,并記錄操作痕跡,以確保無法單獨篡改代碼。
該技術安全專家指出,目前行業通用的做法是實施三級隔離導向性部署,每一級僅包含鏡像,并在每次操作前進行掃描。調用需按次計算,并必須提供密鑰。每一級完成后,才能進入下一級,同時上一級將自動刪除,以實現分級訓練。





京公網安備 11011402013531號