IT之家 11 月 24 日消息,據 404 Media 報道,達特茅斯學院政府學副教授、極化研究實驗室負責人肖恩?韋斯特伍德日前在《美國國家科學院院刊》(PNAS)上發表的一項新研究指出,在線調查研究作為許多科學研究中數據收集的基礎方法,正面臨著大語言模型帶來的嚴重威脅。
韋斯特伍德開發了一款名為“自主合成應答者”的 AI 工具,能夠回答調查問題,并展示了幾乎完美地繞過現有最先進的機器人檢測方法的能力。
![]()
論文指出,這款 AI 智能體成功避開檢測的概率高達 99.8%。韋斯特伍德在新聞稿中表示:“我們再也不能確信調查的答復來自真正的人類了。機器人污染的數據可能會破壞整個知識體系。”
這款 AI 智能體還成功規避了“反向禁忌”問題。“反向禁忌”通過設計任務來識別非人類行為者,大模型能輕松完成這些任務,人類則幾乎不可能完成。
論文《大語言模型對在線調查研究的潛在生存威脅》指出:一旦推理引擎選定了回答,第一層就會執行專注于模仿人類的相應行動。為了躲避自動化檢測,其模擬了與該個體教育水平相符的閱讀時間,生成類似人類的鼠標移動,逐字輸入開放式問題的答案,并包括合理的打字錯誤和更正。該系統還設計了 reCAPTCHA 等繞過反機器人措施的工具,而這通常是自動化系統的一個障礙。
論文還表示,AI 可以模擬“完整的人口統計特征”,意味著理論上任何人都可以通過生成特定人口特征的 AI 干預,操控在線調查的結果,而且甚至僅僅幾個虛假回答就足以影響調查的結果。
論文提到,在 2024 年大選前的七大主要民意調查中,僅需加入 10 到 52 個虛假 AI 回答,就足以改變預測結果。這些虛假回答的生成成本非常低,每個僅需五美分,而人類受訪者通常獲得 1.50 美元(IT之家注:現匯率約合 10.7 元人民幣)的酬勞。
論文使用 OpenAI 的 o4-mini 進行測試,也使用了 DeepSeek R1、Mistral Large、Claude 3.7 Sonnet、Grok3、Gemini 2.5 Preview 等其他模型,證明該方法適用于不同的大模型。該智能體通過接收約 500 字的提示,了解要模仿的個性,并按人類的方式回答問題。
論文指出,研究人員可以通過多種方式應對 AI 智能體污染調查數據的威脅,但每種方式都有權衡。例如,研究人員可以對調查參與者進行更多的身份驗證,但隨之而來的就是隱私問題。論文還建議,研究人員應更加透明地說明調查數據的收集方式,并考慮采用更受控的參與者招募方法,如基于地址的抽樣或選民文件。
論文總結說,確保民意調查和社會科學研究持續有效,需要探索并創新出應對快速發展的 AI 時代挑戰的研究設計。





京公網安備 11011402013531號