南方財經記者魏彤 廣州報道
12月18日, 2025年中國數字文娛大會以“新技術 新模式 新業態”為主題在廣州開幕。主旨發言環節,中國工程院院士、深圳大學電子與信息工程學院院長丁文華圍繞LMM語言大模型及AIGC近兩年進展,探討其對數字文娛帶來的關鍵影響。
“大模型今年最重要的新特征,是開始理解物理世界。”丁文華表示。借助多模態感知,大模型把分散的圖文、聲音、動作等信息對齊、關聯,形成對事件、知識、因果與隱性關系的整體理解。
“大模型的到來,將使周邊設施、數字基礎都發生非常大的變化。隨著技術迭代,當前AIGC在內容生成、場景和鏡頭控制上已到達一定水平,基于生成式的特效已經超越傳統方法,應用也愈加廣泛。”丁文華表示。
一方面利用AI來輔助生產,基于文本或者故事片的設計意圖和文本描述,通過大模型進行文生圖,有了分鏡頭劇本后,再根據鏡頭進行人工拍攝,使文本和視頻對齊形成再次鏡頭的拼接和配合;另一方面利用AI進行創作,根據數據信息制作專業靜態、動態圖表,結合相關描述生成具有年代性的場景,通過圖片和視頻進行情景再現。
當前,我國AIGC創作尚處于起步階段,AI創作類應用與AI助手類應用用戶數仍有較大差距,用戶使用習慣仍待培育。數據顯示,2025年7月,AI創作應用Web端總訪問量接近3000萬;AI助手類應用Web端總訪問量超3億,5款產品訪問量超千萬,總MAU約4300萬。其中,DeepSeek居首位,其國內訪問量超1.2億,MAU約1300萬。
丁文華認為,自2024年以來,LMM/AIGC大模型已經完成了巨大的進步,但當前AIGC生成視頻的能力仍有局限。
在視覺呈現上,受限于訓練素材,目前AIGC生成視頻最高質量為HD(1920*1080),尚不普遍具備4K/8K生成能力;在故事敘述上,當前AIGC在事件、故事層面仍有較大差距,不支持正敘、倒敘、插敘、閃回等敘事手法,無法達到蒙太奇式呈現效果;在內容真實性上,生成內容無法保證符合物理世界的所有客觀規律等。
“未來AIGC可能快速形成顛覆性生產能力,然而當前AI價值觀與創作倫理仍需要規范,AIGC的迭代發展最終將是幫助人類進行創作,利用科技手段渲染和增強藝術效果,而不是替代我們的操作。” 丁文華說。





京公網安備 11011402013531號