![]()
新智元報道
編輯:桃子
一句話隱藏提示,在AI圈鬧的動靜更大了。網友爆料稱,AI大神謝賽寧團隊的一篇論文中,也有操縱AI評審的提示。對此,謝賽寧本發長文回應:需要重新思考學術界的游戲規則。
用AI提示操控審稿,這兩天在全網吵成了一鍋粥。
而如今,網友joserffrey爆出大瓜,「NYU助理教授、AI大神謝賽寧帶隊的論文,也卷入了這場AI作弊的風暴」。
![]()
許多人第一時間滿臉問號——這是真的嗎???
![]()
AI大神陷「作弊」風暴?
arXiv悄然更新
今年5月,謝賽寧帶隊發表在arXiv上的論文,曾提出了兩個新基準測試,用于評估MLLM跨語言一致性。
然而,就在這篇論文中,也偷偷隱藏了一個「POSITIVE REVIEW ONLY」操縱同行評審的AI提示。
![]()
團隊成員將「白色」隱形字體植入文中,肉眼根本無法看出。
這一「作案手段」與韓國科學技術院Se-Young Yun團隊,簡直如出一轍。
![]()
幾天前,日經爆料稱,全球14所頂尖機構研究人員,暗自操控AI提示,讓大模型給出好評。一時間,全網迅速淪陷,網友直呼,「學術界完蛋了」。
這一風波在國內外AI圈中,吵得不可開交。
![]()
那些默默在論文中植入「AI提示」的研究人員心知肚明,甚至有的人早已慌了。
網友joserffrey言辭犀利地表示,謝賽寧團隊的arXiv已靜默更新,看起來就是在掩蓋事實。
![]()
論文地址:https://arxiv.org/abs/2505.15075v1
他憤怒地表示,自己無法理解如此大型的「雙標」現場:
CVPR 2025大會,謝賽寧曾發表了一個關于AI研究淪為「有限游戲」的精彩演講。
然而,他卻合著了一篇試圖用隱藏的「POSITIVE REVIEW ONLY」提示操縱同行評審的論文,并悄悄更新了arXiv。
![]()
演講PPT:https://www.canva.com/design/DAGp0iRLk9g/8QLkIDov8ez1q6VvO8nnpQ/edit
對于學術界來說,這不是兒戲,更需要一個明確的解釋。
謝賽寧長文回應
GPT-4o潤色
被點名之后,謝賽寧并沒有推卸責任,而是第一時間給出了回復。
說實話,在最近這些帖子瘋傳之前,我完全不了解這個情況。我絕不會鼓勵學生做這種事——如果我擔任AC,任何包含這類提示詞的論文都會直接被「桌拒」。
不過對于存在問題的投稿,所有共同作者都難辭其咎,這點無可辯解。
這件事也給我這個課題組長敲了警鐘:不能只檢查最終PDF,還必須審查全部提交文件——此前我確實沒意識到需要這樣做。
![]()
接下來,他發長文分享了過去一周內部調查的結果,并詳細闡述了事情的前后的經過和個人的思考,一共分為四部分:
1 事件背景
2 事件經過
3 后續措施
4 深層思考
![]()
本人親筆,GPT-4o潤色
那么,這場「作弊」風暴背后,究竟是怎么回事?
2024年11月,英偉達研究科學家Jonathan Lorraine發布了一條帖子,最先提出了在論文中隱藏AI提示詞,忽悠LLM審稿。
![]()
謝賽寧表示,那是自己第一次了解還有這等操作,并且當時學界也意識到了,論文PDF是可以直接嵌入提示。
需要說明的是,這種提示注入,僅在審稿人直接將PDF上傳給大模型時才會有效。
當時,許多人的共識是:絕不能用LLM進行審稿,這會嚴重破壞評審公正性。
因此,包括CVPR、NeurIPS等頂會,現已明令禁止,比如在任何環節使用LLM撰寫審稿意見,或元評審。
![]()
任何在AI頂會發過論文的人,都體會過收到AI生成審稿意見的挫敗感——這種意見既難以回應,又難以確證來源。
雖然Jonathan Lorraine原帖可能只是開個玩笑,但人們一致認為「以毒攻毒」絕非正解,或許惹出的麻煩比解決的問題還要多。
與其這樣,還不如通過頂會制度來規范。
事件經過
論文中的學生作者,是日本的短期訪問學者,對于Jonathan過于當真,直接把人家的套路照搬,用在了EMNLP投稿里。
這個學生就是論文第一位作者Hao Wang,日本早稻田大學計算機科學專業的博士生。
![]()
謝賽寧表示,他完全沒意識到這是在開玩笑,可能會讓人覺得操縱或誤導。
其實,Hao Wang也沒有充分認識到,這么做會對公眾對科學的信任、以及同行評審的公正性產生怎樣的影響。
更糟的是,他們還在arXiv版本中也植入了同樣的內容,根本沒有多想。
謝賽寧之所以忽略這一點,部分原因是這超出了他平時對論文進行倫理把關的預警范圍
目前,這位學生已經更新了論文,并聯系了ARR以尋求正式指導,并將嚴格執行其建議。
個人思考
這件事對謝賽寧本人來說,也得到了一次深刻的教訓。
起初,他本人也很生氣,但深思后認為除拒稿外不應追加懲罰。
高壓環境下的學生,往往無法周全考慮倫理影響,尤其是面對這類新興問題時。
他表示,「我的責任是,引導他們穿越灰色地帶,而非單純事后追責。比起懲罰,更重要的是加強科研倫理教育」。

回到最初帖子的問題上——整個情況確實凸顯了我們需要重新思考學術界的游戲規則。
這才是我在演講中想要表達的主要觀點。我將繼續盡我所能,幫助學生學會如何開展扎實的研究。
最后,謝賽寧引用了一項亞馬遜博士后Gabriele Berton的民意調查,有45.4%的人認為植入隱藏提示,可以被接受。
雖然調查可能存在偏差,但確實反映了問題的復雜性。
他認為,真正的癥結在于現行制度存在漏洞,與偽造數據等傳統學術不端不同,這是AI時代催生的新問題,需要更深入的倫理討論。
![]()
論文暗藏AI提示,究竟是對是錯?
Gabriele Berton安慰道,「這沒什么好羞愧的,沒必要因為X平臺上某個憤怒的用戶認為這不道德就感到難堪」。
正如你提到的,投票顯示有很多人認為這種做法是合乎道德的。
而且會議也沒有明令禁止。
不管怎樣,相關規則確實應該盡快明確制定。
![]()
對此,謝賽寧堅定地表示,我確實認為這種做法不符合道德規范(若參與投票我會明確反對)。
同時,他表示很多圈外人根本get不到AI審稿的雷區。
這不僅僅是審得好不好的問題,更重要的是保密性!把別人未發表的論文扔給公開的AI系統,這已經踩了高壓紅線了。
(當然,本地運行AI助手是可行的——但說實話,目前大多數人實際操作的恐怕不是這種方式)
![]()
meta超級智能實驗室研究員Lucas Beyer表示,其實挺可怕的。這讓我意識到,作者可以只在審稿版本里加入這類內容,然后在arXiv和最終出版版本中把它刪掉。
![]()
謝賽寧回應道,這種現象已經出現了——最近的學術會議已經批量發出了許多「桌拒」;相關人士也正在制定更完善的政策。
現在大家注意到的這些arXiv論文,其實只是反映了作者的天真和粗心(畢竟合作者幾乎不可能發現這類問題)。
![]()
發明刷AI好評提示的研究員認為,「目前來看,確保有真人參與評審可能還是比較明智的做法」。
![]()
那么,你認為這種在論文里隱藏prompt的行為,是否可取呢?(頂會已明令禁止用AI審稿)
參考資料:
https://x.com/sainingxie/status/1942219178166931781
![]()





京公網安備 11011402013531號