騰訊優(yōu)圖 投稿量子位 | 公眾號 QbitAI
在AIGC技術(shù)飛速發(fā)展的背景下,只需一行簡單的prompt就可生成高逼真內(nèi)容,然而,這一技術(shù)進(jìn)步也帶來了嚴(yán)重的安全隱患:虛假新聞、身份欺詐、版權(quán)侵犯等問題日益突出。AI生成圖像檢測也成為了AIGC時(shí)代的基礎(chǔ)安全能力。
然而在實(shí)際應(yīng)用中, 存在一個(gè)“尷尬”現(xiàn)象:檢測器往往在“考場”(公開基準(zhǔn)數(shù)據(jù)集)上分?jǐn)?shù)耀眼,一旦換到“戰(zhàn)場”(全新模型或數(shù)據(jù)分布),性能會(huì)大幅下降。
近日,騰訊優(yōu)圖實(shí)驗(yàn)室聯(lián)合華東理工大學(xué)、北京大學(xué)等研究團(tuán)隊(duì)在A生成圖像檢測(AI-Generated Image Detection)泛化問題上展開研究,提出Dual Data Alignment(雙重?cái)?shù)據(jù)對齊,DDA)方法,從數(shù)據(jù)層面系統(tǒng)性抑制“偏差特征”,顯著提升檢測器在跨模型、跨數(shù)據(jù)域場景下的泛化能力。
目前,相關(guān)論文《Dual Data Alignment Makes AI-Generated Image Detector Easier Generalizable》已被NeurIPS 2025接收為Spotlight(錄取率 Top 3.2%)。
![]()
發(fā)現(xiàn):AI圖像檢測器其實(shí)只是在“識(shí)別訓(xùn)練集”
研究團(tuán)隊(duì)認(rèn)為問題的根源可能在于訓(xùn)練數(shù)據(jù)本身的構(gòu)造方式,使得檢測器并沒有真正學(xué)會(huì)區(qū)分真假的本質(zhì)特征,而是“走了捷徑”,依賴于一些與真?zhèn)伪旧頍o關(guān)的“偏差特征”(Biased Features)來做出判斷。
這些偏差特征是真實(shí)圖像與AI生成圖像在訓(xùn)練數(shù)據(jù)收集過程中產(chǎn)生的系統(tǒng)性差異。具體來說:
真實(shí)圖像:來源渠道復(fù)雜,清晰度與畫質(zhì)參差不齊;分辨率分布分散;幾乎都以JPEG 格式存儲(chǔ),并帶有不同程度的壓縮痕跡。AI生成圖像:呈現(xiàn)出高度統(tǒng)一的模式,分辨率常集中在256×256、512×512、1024×1024等固定檔位;并且大多以PNG等無損格式存儲(chǔ);畫面干凈,沒有明顯壓縮痕跡。
在這樣的數(shù)據(jù)構(gòu)成下,檢測模型可能會(huì)去學(xué)習(xí)“投機(jī)策略”,例如PNG≈假圖,JPEG≈真圖。這種“捷徑”可以在某些標(biāo)準(zhǔn)測試集(如GenImage)上甚至可以達(dá)到100%的檢測準(zhǔn)確率,然而一旦對AI生成的PNG圖像進(jìn)行簡單的JPEG壓縮,使其在格式和壓縮痕跡上接近真實(shí)圖像,這類檢測器的性能就會(huì)出現(xiàn)“斷崖式下跌”。
對比真實(shí)圖像和AI生成圖像,兩者可能存在格式偏差、語義偏差和尺寸偏差:
![]()
解法和思路
針對這一問題,研究團(tuán)隊(duì)認(rèn)為如果數(shù)據(jù)本身帶有系統(tǒng)性偏差,模型設(shè)計(jì)的再復(fù)雜也難免“學(xué)偏”。因此提出了DDA(雙重?cái)?shù)據(jù)對齊,Dual Data Alignment) 方法,通過重構(gòu)和對齊訓(xùn)練數(shù)據(jù)來消除偏差。其核心操作分為三步:
![]()
像素域?qū)R(Pixel Alignment)
使用VAE(變分自編碼器)技術(shù)對每一張真實(shí)圖像進(jìn)行重建,得到一張內(nèi)容一致、分辨率統(tǒng)一的AI生成圖像。這一步操作消除了內(nèi)容和分辨率上的偏差。
![]()
頻率域?qū)R(Frequency Alignment)
僅僅像素域?qū)R是不夠的,由于真實(shí)圖像大多經(jīng)過JPEG壓縮,其高頻信息(細(xì)節(jié)紋理)是受損的;而VAE在重建圖像時(shí),反而會(huì)“補(bǔ)全”這些細(xì)節(jié),創(chuàng)造出比真實(shí)圖像更豐富的高頻信息,這本身又成了一種新的偏差。
△可視化對比真實(shí)圖像(JPEG75)和AI生成圖像(PNG)的高頻分量
實(shí)驗(yàn)也證實(shí)了這一點(diǎn):當(dāng)研究者將一幅重建圖像中“完美”的高頻部分,替換為真實(shí)圖像中“受損”的高頻部分后,檢測器對VAE重建圖的檢出率會(huì)大幅下降。
△對比VAE重建圖和VAE重建圖(高頻分量對齊真實(shí)圖像)的檢出率
因此,關(guān)鍵的第二步是對重建圖執(zhí)行與真實(shí)圖完全相同的JPEG壓縮,使得兩類圖像在頻率域上對齊。
![]()
Mixup
最后采用Mixup將真實(shí)圖像與經(jīng)過對齊的生成圖像在像素層面進(jìn)行混合,進(jìn)一步增強(qiáng)真圖和假圖的對齊程度。
![]()
經(jīng)過上述步驟,就能得到一組在像素和頻率特征上都高度一致的“真/假”數(shù)據(jù)集,促進(jìn)模型學(xué)習(xí)更泛化的“區(qū)分真假”的特征。
實(shí)驗(yàn)效果
傳統(tǒng)的學(xué)術(shù)評測往往是為每個(gè)Benchmark單獨(dú)訓(xùn)練一個(gè)檢測器評估。這種評測方式與真實(shí)應(yīng)用場景不符。
為了更真實(shí)地檢驗(yàn)方法的泛化能力,研究團(tuán)隊(duì)提出了一種嚴(yán)格的評測準(zhǔn)則:只訓(xùn)練一個(gè)通用模型,然后用它直接在所有未知的、跨域的測試集上評估。
在這一嚴(yán)格的評測標(biāo)準(zhǔn)下,DDA(基于COCO數(shù)據(jù)重建)實(shí)驗(yàn)效果如下。
綜合表現(xiàn):在一個(gè)包含11個(gè)不同Benchmark的全面測試中,DDA在其中 10個(gè) 上取得了領(lǐng)先表現(xiàn)。安全下限(min-ACC):對于安全產(chǎn)品而言,決定短板的“最差表現(xiàn)”往往比平均分更重要。在衡量模型最差表現(xiàn)的min-ACC指標(biāo)上,DDA比第二名高出了27.5個(gè)百分點(diǎn)。In-the-wild測試:在公認(rèn)高難度的真實(shí)場景“In-the-wild”數(shù)據(jù)集Chameleon上,檢測準(zhǔn)確率達(dá)到82.4%。跨架構(gòu)泛化:DDA訓(xùn)練的模型不僅能檢測主流的Diffusion模型生成的圖像,其學(xué)到的本質(zhì)特征還能有效泛化至GAN和自回歸模型等完全不同,甚至沒有用到VAE的生成架構(gòu)。
![]()
無偏的訓(xùn)練數(shù)據(jù)助力泛化性提升
在AI生成圖像日益逼真的今天,如何準(zhǔn)確識(shí)別“真”與“假”變得尤為關(guān)鍵。
但AIGC檢測模型的泛化性問題,有時(shí)并不需要設(shè)計(jì)復(fù)雜的模型結(jié)構(gòu),而是需要回歸數(shù)據(jù)本身,從源頭消除那些看似微小卻足以致命的“偏見”。
“雙重?cái)?shù)據(jù)對齊”提供了一個(gè)新的技術(shù)思路,通過提供更“高質(zhì)量”的數(shù)據(jù),迫使這些模型最終學(xué)習(xí)正確的知識(shí),并專注于真正重要的特征,從而獲得更強(qiáng)的泛化能力。
論文地址:https://arxiv.org/pdf/2505.14359
GitHub:https://github.com/roy-ch/Dual-Data-Alignment





京公網(wǎng)安備 11011402013531號