【頭部財(cái)經(jīng)】最近,一組引人注目的AI生成美女圖片在網(wǎng)絡(luò)上瘋傳,展現(xiàn)出驚人的創(chuàng)意。這些圖片初看平淡無(wú)奇,但仔細(xì)觀察可以發(fā)現(xiàn)其中隱藏了兩個(gè)漢字。這些圖片成為各大社交平臺(tái)熱議的話題,其中包括不僅上半身的姐姐形象,還有下半身的"刁哥"和紅毛衣小姐姐的形象。網(wǎng)友們紛紛按下手機(jī)截圖鍵,縮小圖片后,發(fā)現(xiàn)夾帶的文字更加清晰。有些網(wǎng)友還給出一些識(shí)別文字的訣竅,例如拿下眼鏡等。
那么,這些令人嘆為觀止的圖片是如何制作出來(lái)的呢?關(guān)鍵在于“ControlNet”技術(shù)大放異彩。這套神奇的AI繪畫(huà)組合由“Stable Diffusion”和“ControlNet”組成。作為最熱門(mén)的AI繪畫(huà)工具之一,“Stable Diffusion”已經(jīng)風(fēng)靡一年,并被人們所熟知和運(yùn)用。而“ControlNet”是“Stable Diffusion”的一個(gè)AI插件。今年春天,由于它可以處理AI無(wú)法控制的手部細(xì)節(jié)和整體架構(gòu),一夜之間走紅,并被網(wǎng)友們戲稱(chēng)為“AI繪畫(huà)細(xì)節(jié)控制大師”。
“Stable Diffusion”根據(jù)提示詞生成圖像,但顯然太過(guò)隨機(jī)。而“ControlNet”提供了一種更精確限制圖像生成范圍的方法。原理就是給訓(xùn)練擴(kuò)散模型增加一個(gè)額外的輸入,從而控制生成圖像的細(xì)節(jié)。這個(gè)額外輸入可以是各種類(lèi)型,包括草圖、邊緣圖像、語(yǔ)義分割圖像、人體關(guān)鍵點(diǎn)特征、深度圖等。使用“Stable Diffusion”和“ControlNet”的組合技術(shù),在預(yù)處理的第一步生成圖像,然后通過(guò)“ControlNet”模型對(duì)圖像進(jìn)行處理,最后將圖像輸入到“Stable Diffusion”中生成最終呈現(xiàn)給用戶的版本。
“ControlNet”的整體思路是復(fù)制一遍擴(kuò)散模型的權(quán)重,形成一個(gè)可訓(xùn)練的副本。原本擴(kuò)散模型經(jīng)過(guò)數(shù)十億張圖片的預(yù)訓(xùn)練,參數(shù)被“鎖定”。但訓(xùn)練副本只需要在特定任務(wù)的小數(shù)據(jù)集上進(jìn)行訓(xùn)練,就能學(xué)會(huì)條件控制。即使數(shù)據(jù)量很少,如少于5萬(wàn)張,經(jīng)過(guò)訓(xùn)練后,條件控制生成的效果也非常出色。在“刁哥”和姐姐的圖片中,ControlNet的作用是確保文字融入光影和衣物圖案中。
此外,抖音原作者表示在制作過(guò)程中還使用了ControlNet的tile模型,這個(gè)模型主要用于增加細(xì)節(jié)描繪,并確保提高降噪強(qiáng)度時(shí),原圖的構(gòu)圖不會(huì)改變。同時(shí),一些AI愛(ài)好者也提出其他的“認(rèn)字”技巧,比如使用ControlNet的brightness模型,用于控制深度信息,對(duì)穩(wěn)定擴(kuò)散進(jìn)行亮度控制,使光影中的文字更加明顯。這個(gè)方法不僅適用于光影文字的制作,也可以用于制作圖像風(fēng)格的二維碼。
對(duì)于AI繪畫(huà)的粉絲來(lái)說(shuō),這些驚人的效果和創(chuàng)意無(wú)疑使他們嘆為觀止。在推特上,一位AI大師站出來(lái),表示愿意分享詳細(xì)教程。教程簡(jiǎn)單明了,分為三個(gè)關(guān)鍵步驟:安裝Stable Diffusion和ControlNet,使用Stable Diffusion進(jìn)行常規(guī)的圖像生成步驟,然后啟用ControlNet,重點(diǎn)調(diào)整Control Weight和Ending Control Step兩個(gè)參數(shù)。根據(jù)這個(gè)方法,不僅可以合成人像和光影文字,還能用于城市夜景等創(chuàng)作。




京公網(wǎng)安備 11011402013531號(hào)