Das einzige Problem, mit dem Text-zu-Bild-KI-Generatoren zu kämpfen haben, sind Hände. Während Bilder im Allgemeinen beeindruckend sind, sind die Hände weniger beeindruckend, mit überflüssigen Fingern, seltsam gebogenen Gelenken und einem offensichtlichen Mangel an Verständnis dafür, wie Hände seitens der KI aussehen sollen. Dies muss jedoch nicht der Fall sein, da das neue Produkt ControlNet Stable Diffusion dabei hilft, perfekte, realistisch aussehende Hände zu erstellen.

ControlNet ist eine neue Technologie, die es Ihnen ermöglicht, eine Skizze, einen Umriss, eine Tiefen- oder Normalkarte zu verwenden, um Neuronen basierend auf Stable Diffusion 1.5 zu steuern. Das bedeutet, dass Sie jetzt jedes benutzerdefinierte 1.5-Modell nahezu perfekt handhaben können, solange Sie die richtige Anleitung haben. ControlNet kann als revolutionäres Werkzeug betrachtet werden, das Benutzern die ultimative Kontrolle über ihre Designs ermöglicht.

Um makellose Hände zu erhalten, verwenden Sie die A1111-Erweiterung mit ControlNet, insbesondere das Depth-Modul. Machen Sie dann ein paar Nahaufnahmen Ihrer Hände und laden Sie sie auf die Registerkarte txt2img der ControlNet-Benutzeroberfläche hoch. Erstellen Sie dann eine einfache Traumformer-Eingabeaufforderung, z. B. „Fantasiekunstwerk, Wikingermann zeigt Hände in Nahaufnahme“ und experimentieren Sie mit der Leistung von ControlNet. Das Experimentieren mit dem Depth-Modul, der A1111-Erweiterung und der Registerkarte txt2img der ControlNet-Benutzeroberfläche führt zu schönen und realistisch aussehenden Händen.

Empfohlener Beitrag: Shutterstock belohnt Künstler, die zu generativen KI-Modellen beitragen

ControlNet selbst konvertiert das ihm übergebene Bild in Tiefe, Normalen oder eine Skizze, sodass es später als Modell verwendet werden kann. Natürlich können Sie aber auch Ihre eigene Tiefenkarte oder Skizzen direkt hochladen. Dies ermöglicht maximale Flexibilität beim Erstellen einer 3D-Szene und ermöglicht es Ihnen, sich auf den Stil und die Qualität des endgültigen Bildes zu konzentrieren.

Wir empfehlen Ihnen dringend, sich das hervorragende ControlNet-Tutorial anzusehen, das Aitrepreneur kürzlich veröffentlicht hat.

ControlNet verbessert die Kontrolle über die Bild-zu-Bild-Funktionen von Stable Diffusion erheblich

Obwohl Stable Diffusion Bilder aus Text erstellen kann, kann es auch Grafiken aus Vorlagen erstellen. Diese Bild-zu-Bild-Pipeline wird häufig verwendet, um generierte Fotos zu verbessern oder mithilfe von Vorlagen neue Bilder von Grund auf zu erstellen.

Während Stable Diffusion 2.0 die Möglichkeit bietet, Tiefendaten aus einem Bild als Vorlage zu verwenden, ist die Kontrolle über diesen Prozess recht eingeschränkt. Dieser Ansatz wird von der früheren Version 1.5 nicht unterstützt, die unter anderem aufgrund der enormen Anzahl benutzerdefinierter Modelle immer noch häufig verwendet wird.

Die Gewichte jedes Blocks aus Stable Diffusion werden von ControlNet in eine trainierbare und eine gesperrte Variante kopiert. Die gesperrte Form behält die Fähigkeiten des produktionsreifen Diffusionsmodells, während die trainierbare Variante durch Feinabstimmung mit winzigen Datensätzen neue Bedingungen für die Bildsynthese erlernen kann.

Stable Diffusion funktioniert mit allen ControlNet-Modellen und bietet deutlich mehr Kontrolle über die generative KI. Das Team stellt Beispiele mehrerer Variationen von Personen in festen Posen sowie verschiedene Innenraumfotos basierend auf der räumlichen Anordnung des Modells und Variationen von Vogelbildern zur Verfügung.

Lesen Sie mehr zum Thema KI:

  • XLM-V: Eine neue Methode mehrsprachiger maskierter Sprachmodelle, die das Problem des Wortschatzengpasses zu lösen versucht

  • Google Maps bietet möglicherweise bald das realistischste Metaverse aller Zeiten

  • Stable Diffusion AI erschafft Traumwelten für VR und Metaverse

Der Beitrag „ControlNet hilft Ihnen dabei, mit Stable Diffusion 1.5 perfekte Hände zu machen“ erschien zuerst auf Metaverse Post.