7 月 17 日消息,據外媒 TechCrunch 今日報道,OpenAI、Anthropic 等機構的 AI 安全研究人員近日公開發聲,批評馬斯克 xAI 的安全文化“魯莽”“完全不負責任”。
目前在 OpenAI 擔任 AI 安全研究員的哈佛大學計算機科學教授 Boaz Barak 在 X 上發文說:“我原本不打算評論 Grok 的安全問題,畢竟我所在的公司與 xAI 存在競爭關系,但這件事根本不是競爭問題。我尊重 xAI 的科學家和工程師,但他們處理安全的方式實在太不負責任了。”
Barak 特別指出,xAI 拒絕發布“系統卡片”令人擔憂(注:這類報告是 AI 行業的基本規范,通常會詳細說明模型的訓練方式與安全評估,以便科研界共同監督)。正因為 xAI 沒有公布相關信息,Grok 4 是否進行過任何安全訓練如今無從得知。
Barak 還對 Grok 的 AI 虛擬角色提出批評,認為它們“放大了我們在情感依賴方面最糟糕的問題”。近年來已有不少案例顯示,一些心理狀態不穩定的人會對聊天機器人產生病態依賴,而 AI 如果總是迎合用戶,反而會進一步加劇風險。
Anthropic 的 AI 安全研究員 Samuel Marks 也批評 xAI 拒絕公開安全評估報告,稱此舉“魯莽”。他表示:“Anthropic、OpenAI 和谷歌在這方面都不完美,但至少他們在上線前會做一些評估并記錄結果,而 xAI 則完全沒有。”
目前,外界根本無法判斷 xAI 是否對 Grok 4 進行過系統測試。在論壇 LessWrong 上,有匿名研究者發帖稱,Grok 4“幾乎沒有任何實質性的安全防護機制”,他們的測試結果讓人憂心。
xAI 的安全顧問、AI 安全中心主任 Dan Hendrycks 在 X 上表示,公司已對 Grok 4 進行過“危險能力評估”,但并未公布任何評估結果。
曾在 OpenAI 領導安全團隊、現為獨立研究員的 Steven Adler 對 TechCrunch 表示:“如果連最基本的安全實踐都不能在行業內得到執行,比如公布危險能力評估的結果,那我確實感到擔憂。政府和公眾有權了解 AI 公司是如何應對這些強大系統所帶來的風險的。”
馬斯克本人長期以來就是 AI 安全的高調倡導者。他多次警告高級 AI 可能帶來災難性后果,也曾公開支持“開放透明”的開發方式。
但眼下多個研究團隊認為 xAI 的行為正背離這些理念,在發布模型的安全流程上已偏離行業常規。諷刺的是,這些做法反而可能促使州議會和聯邦政府更快推動相關立法,要求 AI 公司強制披露安全報告。
多位研究者指出,AI 安全和對齊測試不僅是為了防止極端風險,也是為了防范眼下模型行為失常的問題。(清源)





京公網安備 11011402013531號