Singurul lucru cu care s-au luptat generatoarele AI text-to-image sunt mâinile. În timp ce imaginile sunt în general impresionante, mâinile sunt mai puțin așa, cu degete de prisos, articulații ciudat îndoite și o lipsă clară de înțelegere a cum ar trebui să arate mâinile din partea AI. Cu toate acestea, acest lucru nu trebuie să fie cazul, deoarece noul produs ControlNet este aici pentru a ajuta Stable Diffusion să creeze mâini perfecte, cu aspect realist.

ControlNet este o nouă tehnologie care vă permite să utilizați o schiță, un contur, o adâncime sau o hartă normală pentru a ghida neuronii pe baza Stable Diffusion 1.5. Acest lucru înseamnă că acum puteți avea mâini aproape perfecte pe orice model personalizat 1.5 atâta timp cât aveți îndrumarea potrivită. ControlNet poate fi considerat un instrument revoluționar, care permite utilizatorilor să aibă controlul suprem asupra design-urilor lor.

Pentru a obține mâini impecabile, utilizați extensia A1111 cu ControlNet, în special modulul Adâncime. Apoi, faceți câteva selfie-uri de prim-plan cu mâinile dvs. și încărcați-le în fila txt2img a controlului UI. Apoi creați un mesaj simplu de modelare a viselor, cum ar fi „operă de artă fantezie, bărbat viking care arată mâinile în prim-plan” și experimentați cu puterea ControlNet. Experimentarea cu modulul Depth, extensia A1111 și fila txt2img a interfeței de utilizare ControlNet va avea ca rezultat mâini frumoase și cu aspect realist.

Postare recomandată: Shutterstock recompensează artiștii care contribuie la modele AI generative

ControlNet însuși convertește imaginea pe care i-o este dată în adâncime, în valori normale sau într-o schiță, astfel încât ulterior să poată fi folosită ca model. Dar, desigur, puteți încărca direct propria hartă sau schițe de adâncime. Acest lucru permite flexibilitate maximă la crearea unei scene 3D, permițându-vă să vă concentrați asupra stilului și calității imaginii finale.

Vă sugerăm cu tărie să vă uitați la excelentul tutorial ControlNet pe care Aitrepreneur l-a publicat recent.

ControlNet îmbunătățește considerabil controlul asupra capacităților de imagine la imagine ale Stable Diffusion

Deși Stable Diffusion poate crea imagini din text, poate crea și grafică din șabloane. Această conductă imagine-la-imagine este folosită frecvent pentru a îmbunătăți fotografiile generate sau pentru a produce imagini noi de la zero folosind șabloane.

În timp ce Stable Diffusion 2.0 oferă capacitatea de a utiliza datele de profunzime dintr-o imagine ca șablon, controlul asupra acestui proces este destul de limitat. Această abordare nu este susținută de versiunea anterioară, 1.5, care este încă folosită în mod obișnuit datorită numărului enorm de modele personalizate, printre alte motive.

Greutățile fiecărui bloc din Stable Diffusion sunt copiate de ControlNet într-o variantă antrenabilă și într-o variantă blocată. Forma blocată păstrează capacitățile modelului de difuzie pregătit pentru producție, în timp ce varianta antrenabilă poate învăța condiții noi pentru sinteza imaginii prin reglarea fină cu seturi de date mici.

Stable Diffusion funcționează cu toate modelele ControlNet și oferă un control considerabil mai mare asupra IA generativă. Echipa oferă mostre din mai multe variante de oameni în ipostaze fixe, precum și diverse fotografii de interior bazate pe aranjarea spațială a modelului și variațiile imaginilor cu păsări.

Citiți mai multe despre AI:

  • XLM-V: O nouă metodă de modele de limbaj mascat multilingv care încearcă să abordeze problema blocajului vocabularului

  • Google Maps poate oferi în curând cel mai realist Metaverse vreodată

  • Stable Diffusion AI creează lumi de vis pentru VR și Metaverse

Postarea ControlNet te ajută să faci mâini perfecte cu Stable Diffusion 1.5 a apărut mai întâi pe Metaverse Post.