評論員 牛可心
“大家好,我是你們的嬋寶,今天有事請大家幫忙。嬋妹就想著幫助媽媽,讓家里的生活過得更好一點,同時把老家的土雞蛋分享給粉絲們嘗嘗……”
最近,奧運冠軍全紅嬋的聲音被AI克隆用于帶貨土雞蛋的消息引發熱議。除全紅嬋外,奧運冠軍孫穎莎和王楚欽也遭遇了同樣的仿冒。這些以假亂真的合成聲音不僅讓許多粉絲信以為真,下單購買,更侵犯了當事人的合法權益。與此同時,配音演員也頻頻遭遇“AI盜聲”,維權之路困難重重。
在短視頻平臺上,不少公眾人物的聲音已被AI克隆,其中“如何模仿雷軍說話”“讓明星給你播新聞”的視頻軟件教學和推廣隨處可見,甚至有人專門提供“一鍵克隆”服務。只需一段清晰的語音樣本,短短十幾秒就能生成以假亂真的合成聲音。技術的低門檻讓不法分子有了可乘之機,他們利用公眾對名人的信任,通過仿冒聲音帶貨、直播打賞,甚至可能為未來的詐騙行為鋪路。更令人擔憂的是,如果AI克隆聲音與換臉技術結合,生成的“數字人”將更難辨別,可能被用于更復雜的欺詐行為,危害遠超商業侵權。
從法律層面看,《中華人民共和國民法典》雖然明確規定對自然人聲音的保護參照肖像權保護的有關規定,但在具體實踐中卻面臨諸多困境。一方面,侵權行為認定標準模糊,如何界定“聲音的可識別性”缺乏具體細則;另一方面,維權成本高,被侵權人往往陷入“自證聲音”的尷尬境地。此外,侵權者常隱匿身份,平臺監管滯后,使得追責難上加難。
即將實施的《人工智能生成合成內容標識辦法》為治理AI聲音克隆亂象提供了新思路。該辦法創新性地引入“雙標識”制度,既要求顯式標注AI生成內容,讓普通用戶能夠直觀識別;又通過數據、數字水印等技術為內容溯源和侵權認定提供依據。這種“明暗結合”的標識體系,既保障了公眾知情權,又為監管執法提供了技術支撐。另外,中央網信辦近日在全國范圍內部署開展“清朗·整治AI技術濫用”專項行動,將強化AI技術源頭治理,清理整治違規AI應用程序,推動網站平臺提升檢測鑒偽能力等。這一系列舉措也為治理AI聲音克隆亂象提供了有力抓手。
技術本應造福社會,而非成為侵權的幫兇。治理AI聲音克隆亂象,需要技術、法律與平臺的多方協同。只有形成“技術可控、使用規范、維權順暢”的治理閉環,才能在技術創新與權益保護之間找到平衡,真正實現科技向善的初衷。
![]()





京公網安備 11011402013531號