“2025年將是生成式AI技術(shù)走向深度應(yīng)用的關(guān)鍵元年”,在剛剛結(jié)束的世界人工智能大會上,快手高級副總裁、可靈AI負(fù)責(zé)人兼社區(qū)科學(xué)線負(fù)責(zé)人蓋坤給出了這樣的判斷。他認(rèn)為,生成式AI不僅僅是技術(shù)的革新,更是生產(chǎn)關(guān)系的重塑。 本次人工大會期間,可靈AI重磅發(fā)布了全新的多圖參考、靈動畫布等功能。其中,升級后的多圖參考,在角色、主體和場景一致性、動態(tài)質(zhì)量、畫風(fēng)保持等方面顯著提升;靈動畫布功能則在7月27日正式開啟邀測。根據(jù)快手在大會上披露的信息顯示,可靈AI目前已在全球擁有超過4500萬創(chuàng)作者。
![]()
快手高級副總裁、可靈AI負(fù)責(zé)人兼社區(qū)科學(xué)線負(fù)責(zé)人蓋坤為論壇致辭。
可靈AI視覺生成與互動中心負(fù)責(zé)人萬鵬飛回顧了可靈AI發(fā)布以來的技術(shù)演進(jìn)路徑。他表示,可靈的技術(shù)迭代始終圍繞兩大主線:一是基礎(chǔ)模型能力提升,二是與用戶共創(chuàng)優(yōu)化產(chǎn)品方向。可靈團(tuán)隊通過用戶反饋持續(xù)優(yōu)化模型,形成“技術(shù)+用戶”雙輪驅(qū)動模式。
萬鵬飛表示,可靈1.0版本向全球證明視頻生成技術(shù)可實際應(yīng)用,2.0版本則通過性能與成本優(yōu)化推動行業(yè)標(biāo)準(zhǔn)化。1.0的發(fā)布直接驗證了類似Sora的視頻生成技術(shù)從概念到落地的可能性,而2.0的推出進(jìn)一步明確了新一代模型的技術(shù)范式,帶動行業(yè)競相跟進(jìn)。未來,可靈將持續(xù)輸出技術(shù)成果,助力企業(yè)降低創(chuàng)作門檻,探索數(shù)字人交互、游戲內(nèi)容生成等新場景。
在論壇上,導(dǎo)演薛曉路分享了使用可靈AI進(jìn)行影視創(chuàng)作的實踐經(jīng)驗。她以短片《喵心歸處》為例,指出可靈1.6版本已在動物生成、場景還原等方面展現(xiàn)出強大能力,隨后可靈陸續(xù)推出的新模型能更好支持復(fù)雜動作生成,顯著提升創(chuàng)作效率。她表示,AI重構(gòu)了傳統(tǒng)影視制作流程,從劇本到分鏡、生成、剪輯均可在計算機快速完成,大幅降低時間與成本風(fēng)險。
據(jù)悉,目前可靈AI已通過API為超過2萬家企業(yè)客戶提供服務(wù),覆蓋廣告營銷、影視動畫、游戲制作等行業(yè)。
“2025年將是生成式AI技術(shù)走向深度應(yīng)用的關(guān)鍵元年”,蓋坤表示,隨著去年6月可靈上線,整個行業(yè)都意識到視頻生成大模型的技術(shù)拐點已至,其應(yīng)用的成熟和發(fā)展速度也會非常迅猛。未來,技術(shù)趨勢將聚焦于生成效果和可控性的持續(xù)突破,技術(shù)的精進(jìn)也將為產(chǎn)業(yè)應(yīng)用帶來更多可能性。
采寫:南都N視頻記者 徐冰倩





京公網(wǎng)安備 11011402013531號