
2024年9月14日,國家互聯網信息辦公室發布了“關于《人工智能生成合成內容標識辦法(征求意見稿)》公開征求意見的通知”。
征求意見稿中要求:在人工智能生成合成內容的適當位置,須添加顯式標識或隱式標識!
通過標識,以此“提醒用戶該內容可能為生成合成內容”;且任何人或機構都不得惡意刪除、篡改、偽造、隱匿此標識;違反規定并造成嚴重后果的,將受到相應處罰。
……
確實,自從AI橫空出世后,在內容的生成合成方面,不論是文章、圖片,或是音頻、視頻等,都開始出現了通過人工智能生成合成的作品。
現在,只要進入各大媒體、社交平臺,AI內容可謂比比皆是;但沒有主動標識之下,就會讓人看到眼花繚亂,分不清東西南北、是真是假,便應了《紅樓夢》中那句箴言:“真作假時假亦真,假作真時真亦假”。
但只要略有分辨能力的讀者,大多還是能一眼就看出來,是否為AI操弄出的作品——當人們明白不過是AI合成的東西后,大多就會放棄了繼續閱讀:這是因為,從目前來看,AI所生產的內容,基本上皆可視作“垃圾”!

各大平臺上如此之多的AI垃圾內容,占據了過多的媒體資源不說,且還浪費了讀者的時間,并有礙于人們的視覺與神經——比如,AI所生產的文字內容,目前基本上都是生搬硬套、僵化拗口、邏輯生硬、缺乏文采、層次混亂、毫無情感的無聊文字。
而視頻、音頻類的AI生產內容,太容易讓人產生誤解,甚至是誤導,其還是謠言的最佳制造機器,例如換臉、換聲之后,讓人真假難辨;真真假假之下,浪費了人們的時間和感情不說,還會讓無數人為之上當而渾然不知。
可以說,當下的AI時代,讓我們的內容生態,產生了極大的混亂,內容垃圾天量產出,也讓網絡盜版搬運工層出不窮,一些所謂的批發、量產式的“抄襲自媒體大軍”不斷出現。
比如,最近被媒體起底曝光稱:在新媒體領域,流傳著一個“自媒體江西幫”的傳說。
像年初“造謠西安發生地震”的文章,就源自這個“江西幫”。據報道稱:該自媒體背后的南昌某“MCN機構”,被曝利用AI批量生產,每天竟能生成4000-7000篇營銷號文章,日賺過萬元——但顯然,這樣的人工智能合成內容,基本上都是垃圾性質的東西。
所以,國家對AI內容生成,開始征求意見、制定規則,要求人工智能生成合成內容須“上標”,要能讓讀者明白無誤地分辨清楚,就顯得非常必要和及時!

當有了硬性、強制的規定約束,才能讓AI的內容生產開始變得正本清源,也利于AI本身的正常與正向發展。、
否則,如此垃圾內容滿天飛之下,最終,也必會壞了AI自己的名頭——不僅會毀了其所生產的內容,連AI本身,也可能被自己生產的垃圾所掩埋與毀掉!
這其中,AI一類的軟件,以及允許Ai作品發布的媒體平臺,再加上利用AI制造內容的作者,三方都有責任遵守相關規定;讀者不要只是作為旁觀者出現,也要主動參與監督,以期形成對AI內容監督的立體體系。
事實上,AI軟件或媒體平臺,在大數據時代,技術上把關,應不是什么大問題;而實施AI生產的作者,也要有內容生產者的“文品道德”,以及“文責自負”的擔當。
而與AI相關軟件或平臺,要依據技術能力,并通過嚴格的審核與審查,對于AI生成的內容不明確進行標識的,要嚴禁上線,或予以嚴格處罰,讓“誠信文風”成為AI內容生成的一大“道德與法規標簽”!
就像真正相愛的人一樣,就會大大方方的示愛;而想要AI的人,那就別再偷偷摸摸——否則,做了“見不得光的事”——用人工智能生產的內容,不加上相應標識,就想蒙混人們的眼睛,那就可別怪高懸的法規之劍,會毫不留情地落下了!







京公網安備 11011402013531號