隨著生成式人工智能AI的誕生和普及,AI迅速融入人們學習、工作、生活的各個領域。短短數年前,人類還在嘲笑AI不過是“人工智障”,如今卻親手打開了潘多拉魔盒——有人自然而然把它當作生產力工具,有人卻像是得到了一把趁手且可以為所欲為的武器,AI“一鍵脫衣”,直播間騙局升級,AI擬聲制造“熟人騙局”等亂象層出不窮。深度偽造、數據濫用、版權侵權等技術濫用,令用戶和網民的合法權益受到侵害,正常的信息傳播秩序和市場秩序受到挑戰。
互聯網上,很少有人可以過一種“AI含量為零”的生活。打開搜索引擎,跳轉后最先出現的是對搜索詞條的AI總結;刷短視頻時,營銷號為了規避版權問題,在原創視頻中間不斷地插入AI制作的動畫和語音,一個完整流暢的畫面故事被切成幾段;購物平臺上,AI生成的商品圖和實物圖放在一起,難辨真假。當AI成為“標配”,人類何以“適配”?
圖靈獎得主辛頓曾在演講中提出,要對AI保持足夠的警覺。他把人類與AI的關系,比作飼養一只老虎,老虎長大后可能輕易超越人類,而且人類沒有擺脫和消除它的選項,人類想要生存,必須找到辦法訓練AI。AI是生產力工具還是傷人的武器,就目前來看,關鍵在于使用者的主體意圖。就像有網友調侃的那樣:“缺德的不是AI,是人。”所以,訓練AI,提升“適配”能力,重在“管好人”。
“管好人”離不開平臺的守土有責。作為傳播媒介,平臺可謂第一看門人。今年9月1日起,由國家互聯網信息辦公室等制定的《人工智能生成合成內容標識辦法》開始施行,要求所有AI生成的文字、圖片、視頻等內容“亮明身份”,即添加標識以明確其來源和真實性。在明確AI生成內容的標識責任上,可實行“內容生產者為首責、平臺把關、第三方可核驗”的分層機制:上傳者先自聲明與嵌入水印;平臺在分發前進行自動識別與抽檢復核,對未標注或疑似不實的內容,要求強制補標或限流下架;行業協會與權利人可通過取證接口進行外部核驗。讓AI生成內容“可見、可檢、可追”,進一步整治AI生成內容相關的違法行為。
“管好人”也離不開法治的保障。AI濫用亂象的直接制作者無疑是首要責任人,應當對其違法行為承擔法律責任。如其行為侵犯他人民事權益,還需承擔停止侵害、消除影響、賠禮道歉、賠償損失等民事責任。AI深度偽造信息在網絡平臺上傳播的,平臺經營者未盡到合理的審核、監管義務。明知是深度偽造信息仍進行轉發、傳播的用戶,根據其主觀狀態和具體行為,可能構成共同侵權,承擔相應法律責任。面對AI深度偽造技術的發展,及時跟進創新法規制度,明確深度偽造行為的定性、量刑標準,細化相關罪名的適用情形,填補現有法律空白。只有形成條理清晰的法律法規,才能有效遏制AI濫用犯罪的滋生蔓延,守護公眾的合法權益。
“管好人”需要對開源模型應用設置合規義務與責任。AI倫理實際上是人的倫理,既包括使用者,也包括設計者。應明確禁止將人工智能技術用于高風險、高危害場景,例如利用深度偽造技術實施詐騙或誹謗、生成傳播色情暴力內容、批量偽造學術論文或考試答案,以及針對未成年人進行誘導性營銷或行為操控等。讓AI倫理轉化為可量化、可執行、可驗證的技術標準與制度安排。設定技術底線,讓作惡的成本遠高于守規的成本,才能將作惡者擋在整個生態之外。
人類與AI“共生”的“適配”過程讓我想起《黑客帝國》中的經典場景:反叛軍領袖默菲斯向主角尼歐提供了紅色藥丸和藍色藥丸:選擇紅藥丸,就能從虛擬世界里醒過來,雖獲得自由,但得面對殘酷的真實世界;選擇藍藥丸,就能繼續活在舒適的夢里,忘記一切。在電影中,尼歐吞下了紅色藥丸,完成了“蘇醒”。現實中,人類也不能對AI私人定制的藍藥丸上癮。監管、平臺與用戶聯動共治,通過技術、法律、準入標準制定,共同筑牢防線,避免對AI的過度依賴,防止違法濫用,與AI良性互動,不斷實現“適配”。
上游新聞評論員 康磊





京公網安備 11011402013531號