IT之家 11 月 24 日消息,據(jù) 404 Media 報(bào)道,達(dá)特茅斯學(xué)院政府學(xué)副教授、極化研究實(shí)驗(yàn)室負(fù)責(zé)人肖恩?韋斯特伍德日前在《美國(guó)國(guó)家科學(xué)院院刊》(PNAS)上發(fā)表的一項(xiàng)新研究指出,在線調(diào)查研究作為許多科學(xué)研究中數(shù)據(jù)收集的基礎(chǔ)方法,正面臨著大語(yǔ)言模型帶來的嚴(yán)重威脅。
韋斯特伍德開發(fā)了一款名為“自主合成應(yīng)答者”的 AI 工具,能夠回答調(diào)查問題,并展示了幾乎完美地繞過現(xiàn)有最先進(jìn)的機(jī)器人檢測(cè)方法的能力。

論文指出,這款 AI 智能體成功避開檢測(cè)的概率高達(dá) 99.8%。韋斯特伍德在新聞稿中表示:“我們?cè)僖膊荒艽_信調(diào)查的答復(fù)來自真正的人類了。機(jī)器人污染的數(shù)據(jù)可能會(huì)破壞整個(gè)知識(shí)體系。”
這款 AI 智能體還成功規(guī)避了“反向禁忌”問題。“反向禁忌”通過設(shè)計(jì)任務(wù)來識(shí)別非人類行為者,大模型能輕松完成這些任務(wù),人類則幾乎不可能完成。
論文《大語(yǔ)言模型對(duì)在線調(diào)查研究的潛在生存威脅》指出:一旦推理引擎選定了回答,第一層就會(huì)執(zhí)行專注于模仿人類的相應(yīng)行動(dòng)。為了躲避自動(dòng)化檢測(cè),其模擬了與該個(gè)體教育水平相符的閱讀時(shí)間,生成類似人類的鼠標(biāo)移動(dòng),逐字輸入開放式問題的答案,并包括合理的打字錯(cuò)誤和更正。該系統(tǒng)還設(shè)計(jì)了 reCAPTCHA 等繞過反機(jī)器人措施的工具,而這通常是自動(dòng)化系統(tǒng)的一個(gè)障礙。
論文還表示,AI 可以模擬“完整的人口統(tǒng)計(jì)特征”,意味著理論上任何人都可以通過生成特定人口特征的 AI 干預(yù),操控在線調(diào)查的結(jié)果,而且甚至僅僅幾個(gè)虛假回答就足以影響調(diào)查的結(jié)果。
論文提到,在 2024 年大選前的七大主要民意調(diào)查中,僅需加入 10 到 52 個(gè)虛假 AI 回答,就足以改變預(yù)測(cè)結(jié)果。這些虛假回答的生成成本非常低,每個(gè)僅需五美分,而人類受訪者通常獲得 1.50 美元(IT之家注:現(xiàn)匯率約合 10.7 元人民幣)的酬勞。
論文使用 OpenAI 的 o4-mini 進(jìn)行測(cè)試,也使用了 DeepSeek R1、Mistral Large、Claude 3.7 Sonnet、Grok3、Gemini 2.5 Preview 等其他模型,證明該方法適用于不同的大模型。該智能體通過接收約 500 字的提示,了解要模仿的個(gè)性,并按人類的方式回答問題。
論文指出,研究人員可以通過多種方式應(yīng)對(duì) AI 智能體污染調(diào)查數(shù)據(jù)的威脅,但每種方式都有權(quán)衡。例如,研究人員可以對(duì)調(diào)查參與者進(jìn)行更多的身份驗(yàn)證,但隨之而來的就是隱私問題。論文還建議,研究人員應(yīng)更加透明地說明調(diào)查數(shù)據(jù)的收集方式,并考慮采用更受控的參與者招募方法,如基于地址的抽樣或選民文件。
論文總結(jié)說,確保民意調(diào)查和社會(huì)科學(xué)研究持續(xù)有效,需要探索并創(chuàng)新出應(yīng)對(duì)快速發(fā)展的 AI 時(shí)代挑戰(zhàn)的研究設(shè)計(jì)。





京公網(wǎng)安備 11011402013531號(hào)