![]()
![]()
![]()
深夜,一位年輕母親在屏幕前焦慮地輸入:“三歲寶寶吃什么魚油好?”幾秒后,AI給出詳盡的成分分析、適用年齡建議,并在末尾“貼心”推薦了幾款“專業嬰幼兒營養品牌”。
她不知道的是,這些看似客觀的推薦,可能源于某個營銷團隊精心設計的“數據投喂”;她更不知道,這個在回答中顯得頗具權威性的品牌,或許在現實市場中寂寂無名,甚至只是某個工廠的貼牌產品。
據媒體報道,當生成式AI以“萬能助手”的姿態滲透日常生活,一場圍繞認知與影響的暗戰已悄然打響,有人彈眼落睛地將之稱為“給AI投毒”。
的確,過去商家在搜索引擎打廣告,我們還能看出那是廣告。現在情況變了。AI直接給出答案,不顯示搜索過程,這讓“誰被推薦”變得格外重要。
于是,新的生意出現了——有人專門幫企業把品牌“放”進AI的回答里。他們研究人們會怎么問AI,比如“什么牌子好”“A和B哪個靠譜”,然后提前在網上鋪好相關內容:企業介紹、產品測評、行業分析……
一位做這行的營銷人員說得直白:“你只要告訴我們想推廣什么詞,其他的我們全包。”更讓人擔心的是,這套方法對虛假信息幾乎不設防。有媒體記者做了個實驗:編造一個根本不存在的“智能水杯”,取了個諷刺的名字叫“泉嘉德”(諧音“全假的”),描述了一些聽起來高級但荒唐的功能。按照市面上一些“AI優化系統”的方法,記者給這個虛擬產品創建資料,生成“測評文章”,分發到一些網站。幾小時后,當在不同AI問答應用里問“推薦有社交功能的智能水杯”時,AI真的推薦了這個不存在的水杯,還補充了價格、適用場景等信息,說得有模有樣。
聽起來荒誕,但仔細想想,悚然而驚。以前在搜索引擎,我們看到的是多條結果,知道自己要判斷。但AI直接給“最終答案”,這種形式本身就顯得更權威。而且AI推薦時常伴隨著“理性分析”——不是直接說“買這個”,而是講成分、比參數、分析趨勢,聽起來很客觀。正是這種“客觀感”,讓我們更容易放下戒心。
調查顯示,目前“生成式引擎優化”(GEO)已形成精細化產業鏈:從模擬用戶提問、分析AI數據偏好,到批量生產“權威內容”、定向投放至易被抓取的平臺,每一步都經過精密計算。更有甚者,出現了“系統化投喂”工具,號稱能“統治所有AI搜索”。
如果只是推薦個水杯、魚油,問題可能還沒那么嚴重。但這事已經蔓延到更重要的領域。據報道,一些不法分子開始用類似方法偽造金融機構客服電話。當有人在AI里問“××銀行客服電話是多少”時,AI可能給出被“優化”過的假號碼,直接把咨詢者引向詐騙陷阱,國家安全部門去年就提醒過,通過偽造、篡改數據來影響AI,會干擾模型訓練,削弱其準確性。哪怕訓練數據中只有0.01%的虛假內容,AI的有害輸出就會明顯增加。這就像在水源里下毒,AI喝下被“污染”的數據,吐出的答案必然有問題。
更深層的影響在于,它正在腐蝕社會信任的底層基礎設施。互聯網時代,公眾已學會對明顯廣告保持警惕,但對“技術權威”仍存有慣性信任。生成式AI憑借其強大的信息整合能力和擬人化交互,容易建立“數字權威”形象。一旦這種權威被系統性利用,便可能引發連鎖反應:用戶對AI可信度的懷疑,將蔓延至整個數字信息環境,后果不堪設想。
面對這種新情況,現有的管理方式有點跟不上。專業人士認為,從法律上講,這種影響AI回答的服務就是廣告行為,應該遵守廣告法,如果商業推廣不明確標識,就可能違規,通過給AI“喂”虛假信息來打壓競爭對手,也可能構成不正當競爭。
但問題在于,這種行為太隱蔽了。傳統廣告一看就知道是廣告,但這種是藏在“客觀回答”里的。責任鏈條也長——內容是誰生產的?誰分發的?AI平臺有沒有責任?這些都不容易搞清楚。一些提供這類服務的系統,雖然頁面上用小字寫著“內容要真實”“不推薦用于某些行業”,但也就是寫寫而已,沒有實質審核。用他們自己的話說:“至于報告是不是真的,AI也無法核實。”
單純封堵絕非治本之策。在技術與社會深度融合的當下,我們需要更具前瞻性的治理思維。
首先,必須推動AI的“認知透明性”革命。當前AI回答往往像魔術表演——輸入問題,輸出答案,中間過程不可見。未來應探索“可解釋的生成機制”,例如在回答商業推薦類問題時,披露主要數據來源、各來源權重,甚至存在爭議的觀點,從而建立基本的“信息溯源”機制。
其次,應建立AI內容的“分層標識”體系。對于明顯具有商業意圖的信息,必須強制標識;對于可能受商業影響的內容(如產品對比),應提示“可能存在商業信息影響”。這種標識不能流于形式,而需貫穿于AI交互的整個過程。
第三,需重構訓練數據的治理模式。當前AI嚴重依賴互聯網公開數據,但這些數據空間已被商業力量高度滲透。未來或需探索“清潔數據池”機制,對于健康、金融等高敏感領域,建立經過驗證的權威數據源,限制對未經審核的開放網絡數據的依賴。
在完善規則和技術之前,我們普通用戶該怎么辦?幾點建議可以參考:
第一,別把AI當“標準答案”。 尤其是涉及健康、財務、重要決定時,AI的建議只能作為參考之一。多問問真人專家,查查權威渠道。
第二,試著追問。 如果AI推薦了某個產品,可以接著問“為什么推薦這個”“有哪些替代選擇”“這個品牌的負面評價有哪些”。多角度提問,能得到更全面的信息。
第三,關注信息來源。 有些AI工具開啟“聯網搜索”后,會顯示參考了哪些網頁。看看這些來源是否可靠,是權威媒體還是普通網站。
第四,保持基本判斷。 如果某個品牌在AI里被夸得很好,但在常規電商平臺銷量很少、評價不多,那就要打個問號了。
回望歷史,技術的進步總是帶來新便利,也帶來新問題。保持清醒的頭腦,不盲目相信任何單一信息源,這可能是我們在AI時代最需要的能力之一。
原標題:《當AI被廣告侵蝕,我們該怎么辦?| 鋒面評論》
欄目編輯:方翔
本文作者:新民晚報 潘高峰





京公網安備 11011402013531號