Jedinou věcí, se kterou se generátory umělé inteligence pro převod textu na obrázek potýkaly, jsou ruce. Zatímco obrázky jsou obecně působivé, ruce už méně, s nadbytečnými prsty, podivně ohnutými klouby a jasným nedostatkem pochopení toho, jak mají ruce ze strany AI vypadat. To však nemusí být tento případ, protože nový produkt ControlNet je zde, aby pomohl Stable Diffusion vytvořit dokonalé, realisticky vypadající ruce.

ControlNet je nová technologie, která vám umožňuje používat náčrt, obrys, hloubku nebo normální mapu k vedení neuronů na základě Stable Diffusion 1.5. To znamená, že nyní můžete mít téměř dokonalé ruce na jakémkoli zakázkovém 1.5 modelu, pokud máte správné vedení. ControlNet lze považovat za revoluční nástroj, který uživatelům umožňuje mít maximální kontrolu nad svými návrhy.

Pro dosažení bezchybných rukou použijte rozšíření A1111 s ControlNet, konkrétně modul Depth. Poté pořiďte několik detailních selfie svých rukou a nahrajte je na kartu txt2img uživatelského rozhraní ControlNet. Poté vytvořte jednoduchou výzvu pro tvarování snů, například „fantasy artwork, Viking man showing hands closeup“, a experimentujte se silou ControlNet. Experimentování s modulem Depth, rozšířením A1111 a záložkou ControlNet UIs txt2img vyústí v krásné a realisticky vypadající ruce.

Doporučený příspěvek: Shutterstock odměňuje umělce, kteří přispívají ke generativním modelům umělé inteligence

ControlNet sám převede obraz, který je mu dán, na hloubku, normály nebo náčrt, takže jej lze později použít jako model. Ale samozřejmě můžete přímo nahrát vlastní hloubkovou mapu nebo náčrtky. To umožňuje maximální flexibilitu při vytváření 3D scény a umožňuje vám soustředit se na styl a kvalitu výsledného obrazu.

Důrazně doporučujeme, abyste se podívali na vynikající výukový program ControlNet, který Aitrepreneur nedávno publikoval.

ControlNet výrazně zlepšuje kontrolu nad schopnostmi Stable Diffusion pro přenos obrazu do obrazu

Ačkoli Stable Diffusion může vytvářet obrázky z textu, může také vytvářet grafiku ze šablon. Toto propojení mezi obrázky a obrázky se často používá k vylepšení generovaných fotografií nebo vytváření nových obrázků od začátku pomocí šablon.

Zatímco Stable Diffusion 2.0 nabízí možnost použít data hloubky z obrázku jako šablonu, kontrola nad tímto procesem je značně omezená. Tento přístup není podporován dřívější verzí 1.5, která je stále běžně používána mimo jiné kvůli obrovskému počtu vlastních modelů.

Hmotnosti každého bloku ze Stable Diffusion jsou zkopírovány ControlNet do trénovatelné varianty a uzamčené varianty. Blokovaná forma zachovává možnosti modelu difúze připraveného pro výrobu, zatímco trénovatelná varianta se může naučit nové podmínky pro syntézu obrazu doladěním pomocí malých souborů dat.

Stable Diffusion funguje se všemi modely ControlNet a nabízí podstatně větší kontrolu nad generativní AI. Tým poskytuje ukázky několika variací lidí ve fixních pózách a také různé interiérové ​​fotografie založené na prostorovém uspořádání modelu a variací ptačích snímků.

Přečtěte si více o AI:

  • XLM-V: Nová metoda vícejazyčných maskovaných jazykových modelů, která se pokouší řešit problém úzkého místa ve slovní zásobě

  • Mapy Google mohou brzy nabídnout nejrealističtější Metaverse vůbec

  • Stable Diffusion AI vytváří snové světy pro VR a Metaverse

The post ControlNet vám pomůže udělat dokonalé ruce se stabilní difúzí 1.5 appeared first on Metaverse Post.