![]()
近日,有網友發現演員溫崢嶸同時“現身”三個不同直播間,她身著不同服裝推廣著不同的產品,動作神態與本人高度相似。其實今年4月,溫崢嶸就曾對此進行過聲明和維權,但沒能阻擋住網絡盜播和AI冒充行為的泛濫。
AI濫用問題如今可謂泛濫成災,公眾人物的生物特征因高商業價值而成為優先侵權目標,但AI濫用早已突破“名人專屬”的邊界,形成了覆蓋全人群的風險網絡。寧夏警方破獲的AI換臉詐騙案中,騙子通過實時換臉偽造親友視頻實施詐騙,讓受害者防不勝防。更令人擔憂的是,AI技術門檻持續降低,開源工具、消費級電腦即可完成實時換臉,甚至“一張照片就能生成動態視頻”,使得侵權違法成本極低,而維權成本卻居高不下。
AI深度偽造技術的泛濫,正在瓦解人類社會賴以存續的信任基礎。AI合成的音視頻的逼真度甚至讓本人都難以分辨,“耳聽為虛,眼見為實”的傳統認知被徹底顛覆。這種信任危機早已超越個體權益范疇:消費者因AI虛假代言誤購劣質產品,破壞市場誠信;“AI醫療誤診”等虛假信息誤導公眾決策,威脅生命健康;虛假視頻甚至可能激化社會矛盾,動搖公共秩序……
“賽博溫崢嶸”泛濫讓溫崢嶸陷入自證困局,維權陷入“封一個、冒一個”的拉鋸戰。這起看似公眾人物專屬的維權困境,實則是AI濫用向整個社會發出的信任危機預警——當技術門檻低至一部手機即可克隆人臉、合成聲音,當“證明我是我”成為數字時代的荒誕命題,AI已從服務工具異化為潛在侵權利器,其危害正從公眾人物蔓延至每一個普通人。
遏制AI濫用、重建信任體系,絕非單一主體能完成,需法律、平臺、公眾形成閉環治理,讓技術回歸服務本質。
法治是治理AI濫用的根本保障。盡管《人工智能生成合成內容標識辦法》《深度合成管理規定》等法規已明確要求AI內容“亮明身份”,禁止未經授權使用生物特征信息,但仍需強化法律的剛性約束。一方面要細化追責條款,對AI偽造、傳播侵權內容的行為提高違法成本,形成有效震懾;另一方面要完善證據規則,降低被侵權者的舉證難度,明確平臺與侵權者的連帶責任,破解“維權難”困境。
平臺作為AI內容傳播的關鍵樞紐,必須壓實主體責任,落實AI內容標識義務,讓AI生成內容“自帶身份證”,并建立全鏈條管控機制,對違規賬號實施黑名單管理,追溯資金流向并移交執法線索,而非簡單封號了事。還要加大技術研發投入,推廣照片視頻防偽技術,構建多因素身份認證體系,從源頭遏制深度偽造風險。
面對AI濫用風險,公眾需從“被動防御”轉向“主動辨識”。普通人應增強個人信息保護意識,非必要不泄露人臉、聲音等生物特征,學習基礎辨偽技巧,遇到可疑內容時通過權威平臺溯源核實,不做虛假信息的“二傳手”。
技術本身并無善惡,AI的價值終究取決于人類的選擇與約束。唯有以法律劃紅線、以技術筑防線、以素養強能力,才能遏制AI從“深度合成”淪為“深度偽造”。 □ 胡欣紅





京公網安備 11011402013531號