Viena lieta, ar ko AI ģeneratori ir cīnījušies ar tekstu pārveidojot attēlu, ir rokas. Lai gan attēli parasti ir iespaidīgi, rokas ir mazāk iespaidīgas, ar liekiem pirkstiem, dīvaini saliektām locītavām un nepārprotamu izpratnes trūkumu par to, kādām rokām ir jāizskatās no AI. Tomēr tam tā nav jābūt, jo jaunais ControlNet produkts ir paredzēts, lai palīdzētu Stable Diffusion radīt perfektas, reālistiskas rokas.

ControlNet ir jauna tehnoloģija, kas ļauj izmantot skici, kontūru, dziļumu vai parasto karti, lai vadītu neironus, pamatojoties uz Stable Diffusion 1.5. Tas nozīmē, ka tagad varat gandrīz nevainojami pārvaldīt jebkuru pielāgotu 1.5 modeli, ja vien jums ir pareizi norādījumi. ControlNet var uzskatīt par revolucionāru rīku, kas lietotājiem ļauj pilnībā kontrolēt savu dizainu.

Lai panāktu nevainojamu roku darbību, izmantojiet paplašinājumu A1111 ar ControlNet, īpaši moduli Depth. Pēc tam uzņemiet dažus tuvplāna pašbildes no savām rokām un augšupielādējiet tos ControlNet lietotāja interfeisa cilnē txt2img. Pēc tam izveidojiet vienkāršu sapņu veidotāja uzvedni, piemēram, “fantāzijas mākslas darbi, vikingu vīrs rāda rokas tuvplānā” un eksperimentējiet ar ControlNet jaudu. Eksperimentējot ar moduli Depth, paplašinājumu A1111 un ControlNet UIs txt2img cilni, tiks iegūtas skaistas un reālistiskas rokas.

Ieteicamā ziņa: Shutterstock apbalvo māksliniekus, kuri sniedz ieguldījumu ģeneratīvu AI modeļu izstrādē

ControlNet pats pārvērš tam piešķirto attēlu dziļumā, normāli vai skicē, lai vēlāk to varētu izmantot kā modeli. Bet, protams, jūs varat tieši augšupielādēt savu dziļuma karti vai skices. Tas nodrošina maksimālu elastību, veidojot 3D ainu, ļaujot jums koncentrēties uz gala attēla stilu un kvalitāti.

Mēs ļoti iesakām apskatīt lielisko ControlNet apmācību, ko Aitrepreneur nesen publicēja.

ControlNet ievērojami uzlabo kontroli pār Stable Diffusion attēla pārveides iespējām

Lai gan Stabilā difūzija var izveidot attēlus no teksta, tā var izveidot arī grafiku no veidnēm. Šo attēlu pārveidošanas cauruļvadu bieži izmanto, lai uzlabotu ģenerētos fotoattēlus vai izveidotu jaunus attēlus no jauna, izmantojot veidnes.

Lai gan Stable Diffusion 2.0 piedāvā iespēju kā veidni izmantot attēla dziļuma datus, šī procesa kontrole ir diezgan ierobežota. Šo pieeju neatbalsta iepriekšējā versija 1.5, kas joprojām tiek plaši izmantota, jo, cita starpā, ir milzīgs skaits pielāgotu modeļu.

Katra bloka atsvarus no Stable Diffusion ControlNet kopē apmācāmā un bloķētā variantā. Bloķētā forma saglabā ražošanai gatavā difūzijas modeļa iespējas, savukārt apmācāmais variants var apgūt jaunus attēlu sintēzes nosacījumus, precizējot ar nelielām datu kopām.

Stable Diffusion darbojas ar visiem ControlNet modeļiem un piedāvā ievērojami lielāku kontroli pār ģeneratīvo AI. Komanda nodrošina vairāku cilvēku variāciju paraugus fiksētās pozās, kā arī dažādas interjera fotogrāfijas, pamatojoties uz modeļa telpisko izkārtojumu un putnu attēlu variācijām.

Lasiet vairāk par AI:

  • XLM-V: jauna daudzvalodu maskētu valodu modeļu metode, kas mēģina risināt vārdu krājuma sašaurinājuma problēmu

  • Google Maps drīzumā var piedāvāt visu laiku reālistiskāko Metaverse

  • Stabilas difūzijas AI rada sapņu pasaules VR un Metaverse

Ziņa ControlNet palīdz jums izveidot perfektas rokas ar stabilu difūziju 1.5 appeared first on Metaverse Post.