IT之家 7 月 17 日消息,據(jù)外媒 TechCrunch 今日報(bào)道,OpenAI、Anthropic 等機(jī)構(gòu)的 AI 安全研究人員近日公開發(fā)聲,批評馬斯克 xAI 的安全文化“魯莽”“完全不負(fù)責(zé)任”。
目前在 OpenAI 擔(dān)任 AI 安全研究員的哈佛大學(xué)計(jì)算機(jī)科學(xué)教授 Boaz Barak 在 X 上發(fā)文說:“我原本不打算評論 Grok 的安全問題,畢竟我所在的公司與 xAI 存在競爭關(guān)系,但這件事根本不是競爭問題。我尊重 xAI 的科學(xué)家和工程師,但他們處理安全的方式實(shí)在太不負(fù)責(zé)任了。”
Barak 特別指出,xAI 拒絕發(fā)布“系統(tǒng)卡片”令人擔(dān)憂(IT之家注:這類報(bào)告是 AI 行業(yè)的基本規(guī)范,通常會(huì)詳細(xì)說明模型的訓(xùn)練方式與安全評估,以便科研界共同監(jiān)督)。正因?yàn)?xAI 沒有公布相關(guān)信息,Grok 4 是否進(jìn)行過任何安全訓(xùn)練如今無從得知。
Barak 還對 Grok 的 AI 虛擬角色提出批評,認(rèn)為它們“放大了我們在情感依賴方面最糟糕的問題”。近年來已有不少案例顯示,一些心理狀態(tài)不穩(wěn)定的人會(huì)對聊天機(jī)器人產(chǎn)生病態(tài)依賴,而 AI 如果總是迎合用戶,反而會(huì)進(jìn)一步加劇風(fēng)險(xiǎn)。
Anthropic 的 AI 安全研究員 Samuel Marks 也批評 xAI 拒絕公開安全評估報(bào)告,稱此舉“魯莽”。他表示:“Anthropic、OpenAI 和谷歌在這方面都不完美,但至少他們在上線前會(huì)做一些評估并記錄結(jié)果,而 xAI 則完全沒有。”
目前,外界根本無法判斷 xAI 是否對 Grok 4 進(jìn)行過系統(tǒng)測試。在論壇 LessWrong 上,有匿名研究者發(fā)帖稱,Grok 4“幾乎沒有任何實(shí)質(zhì)性的安全防護(hù)機(jī)制”,他們的測試結(jié)果讓人憂心。
xAI 的安全顧問、AI 安全中心主任 Dan Hendrycks 在 X 上表示,公司已對 Grok 4 進(jìn)行過“危險(xiǎn)能力評估”,但并未公布任何評估結(jié)果。
曾在 OpenAI 領(lǐng)導(dǎo)安全團(tuán)隊(duì)、現(xiàn)為獨(dú)立研究員的 Steven Adler 對 TechCrunch 表示:“如果連最基本的安全實(shí)踐都不能在行業(yè)內(nèi)得到執(zhí)行,比如公布危險(xiǎn)能力評估的結(jié)果,那我確實(shí)感到擔(dān)憂。政府和公眾有權(quán)了解 AI 公司是如何應(yīng)對這些強(qiáng)大系統(tǒng)所帶來的風(fēng)險(xiǎn)的。”
馬斯克本人長期以來就是 AI 安全的高調(diào)倡導(dǎo)者。他多次警告高級 AI 可能帶來災(zāi)難性后果,也曾公開支持“開放透明”的開發(fā)方式。
但眼下多個(gè)研究團(tuán)隊(duì)認(rèn)為 xAI 的行為正背離這些理念,在發(fā)布模型的安全流程上已偏離行業(yè)常規(guī)。諷刺的是,這些做法反而可能促使州議會(huì)和聯(lián)邦政府更快推動(dòng)相關(guān)立法,要求 AI 公司強(qiáng)制披露安全報(bào)告。
多位研究者指出,AI 安全和對齊測試不僅是為了防止極端風(fēng)險(xiǎn),也是為了防范眼下模型行為失常的問題。





京公網(wǎng)安備 11011402013531號(hào)