2025年2月25日,阿里云正式開(kāi)源視覺(jué)生成基座模型萬(wàn)相2.1(Wan),這一重磅動(dòng)作在AI視頻生成領(lǐng)域掀起技術(shù)浪潮。作為全球率先實(shí)現(xiàn)萬(wàn)相2.1全功能整合的在線(xiàn)AIGC創(chuàng)作平臺(tái),RunningHub以“零門(mén)檻、高性能、全生態(tài)”的優(yōu)勢(shì),讓創(chuàng)作者零門(mén)檻駕馭尖端AI技術(shù)。
萬(wàn)相2.1:超越Sora的國(guó)產(chǎn)大模型
作為阿里云視覺(jué)生成技術(shù)的集大成者,14B版本的萬(wàn)相模型在指令遵循、復(fù)雜運(yùn)動(dòng)生成、物理建模、文字視頻生成等方面表現(xiàn)突出,1.3B版本測(cè)試結(jié)果不僅超過(guò)了更大尺寸的開(kāi)源模型,甚至還接近部分閉源模型。
在權(quán)威評(píng)測(cè)集VBench中,萬(wàn)相2.1以總分86.22%的成績(jī)大幅超越Sora、Luma、Pika等國(guó)內(nèi)外模型,穩(wěn)居榜首位置,尤其在復(fù)雜運(yùn)動(dòng)生成(如人物旋轉(zhuǎn)、跳躍)、物理規(guī)律模擬(碰撞、反彈)和中文文字視頻生成上表現(xiàn)驚艷。
RunningHub:萬(wàn)相2.1的最佳拍檔
面對(duì)14B參數(shù)模型對(duì)本地部署帶來(lái)的挑戰(zhàn),作為AI創(chuàng)作領(lǐng)域的先鋒,RunningHub 率先集成萬(wàn)相2.1模型,用戶(hù)無(wú)需復(fù)雜的本地部署,一鍵即可調(diào)用萬(wàn)相2.1模型。
針對(duì)14B模型的高算力需求,RunningHub依托超大規(guī)模云端GPU集群,提供流暢的在線(xiàn)生成體驗(yàn),徹底解放本地硬件壓力。無(wú)論是專(zhuān)業(yè)創(chuàng)作者還是新人小白,都能通過(guò)網(wǎng)頁(yè)端高效創(chuàng)作專(zhuān)業(yè)級(jí)視頻。
作為最受全球創(chuàng)作者歡迎的在線(xiàn)AIGC創(chuàng)作平臺(tái),RunningHub集成Stable Diffusion、Lora等超6000+節(jié)點(diǎn)與海量模型,覆蓋游戲、動(dòng)漫、電商、設(shè)計(jì)等多個(gè)創(chuàng)作領(lǐng)域,結(jié)合萬(wàn)相2.1的強(qiáng)大能力,能夠輕松打造多樣化內(nèi)容。
目前,已有多名創(chuàng)作者通過(guò)RunningHub萬(wàn)相2.1打造出數(shù)十個(gè)專(zhuān)業(yè)工作流及AI應(yīng)用。

萬(wàn)相2.1的開(kāi)源標(biāo)志著AI視頻技術(shù)商業(yè)化的加速,而RunningHub的深度整合讓這一技術(shù)觸手可及,當(dāng)萬(wàn)相2.1遇見(jiàn)RunningHub的云端生態(tài),技術(shù)門(mén)檻不再是創(chuàng)意的枷鎖。無(wú)論是想用AI快速生成產(chǎn)品演示視頻的電商團(tuán)隊(duì),還是試圖用動(dòng)態(tài)漫畫(huà)講述故事的獨(dú)立創(chuàng)作者,現(xiàn)在只需打開(kāi)瀏覽器就能調(diào)用對(duì)標(biāo)好萊塢特效的生成能力,將創(chuàng)意快速轉(zhuǎn)化為作品。
立即加入RunningHub,成為首批駕馭萬(wàn)相2.1的先鋒創(chuàng)作者!在這里,每一份靈感都能被AI賦能,每一秒視頻都在定義未來(lái)。





京公網(wǎng)安備 11011402013531號(hào)