文字到圖像的人工智慧生成器一直在努力解決的一件事是人手。雖然影像通常令人印象深刻,但手就不那麼令人印象深刻了,手指多餘,關節彎曲怪異,而且人工智慧顯然缺乏對手應該是什麼樣子的理解。然而,情況並非必須如此,因為新的 ControlNet 產品可以幫助穩定擴散創建完美、逼真的手部。

ControlNet 是一項新技術,可讓您使用草圖、輪廓、深度或法線貼圖來引導基於穩定擴散 1.5 的神經元。這意味著只要您有正確的指導,您現在就可以幾乎完美地操作任何自訂 1.5 模型。 ControlNet 可以被認為是一種革命性的工具,允許使用者對其設計擁有最終的控制權。

為了實現完美的雙手,請將 A1111 擴充與 ControlNet 結合使用,特別是深度模組。然後,拍攝幾張雙手的特寫自拍照並將其上傳到 ControlNet UI 的 txt2img 標籤。然後創建一個簡單的夢想塑造提示,例如“幻想藝術品,維京人展示雙手特寫”,並嘗試 ControlNet 的強大功能。使用深度模組、A1111 擴充功能和 ControlNet UI txt2img 標籤進行實驗將產生漂亮且逼真的手。

推薦貼文:Shutterstock 獎勵對生成 AI 模型做出貢獻的藝術家

ControlNet 本身會將給定的影像轉換為深度、法線或草圖,以便稍後將其用作模型。但是,當然,您可以直接上傳自己的深度圖或草圖。這可以在創建 3D 場景時提供最大的靈活性,使您能夠專注於最終影像的風格和品質。

我們強烈建議您查看 Aitrepreneur 最近發布的優秀 ControlNet 教學。

ControlNet 大大提高了對穩定擴散影像到影像功能的控制

雖然穩定擴散可以從文字創建圖像,但它也可以從模板創建圖形。這種圖像到圖像的管道經常用於增強生成的照片或使用模板從頭開始生成新圖像。

雖然穩定擴散 2.0 提供了使用影像深度資料作為模板的功能,但對此過程的控制相當有限。早期版本 1.5 不支援此方法,但由於自訂模型數量龐大等原因,該方法仍被廣泛使用。

ControlNet 將穩定擴散中的每個區塊的權重複製到可訓練變體和鎖定變體中。區塊形式保留了可用於生產的擴散模型的功能,而可訓練的變體可以透過使用微小資料集進行微調來學習影像合成的新條件。

穩定擴散適用於所有 ControlNet 模型,並提供更多對生成 AI 的控制。團隊提供了幾種固定姿勢的人物樣本,以及基於模型空間排列和鳥類圖像變化的各種室內照片。

了解更多有關人工智慧的資訊:

  • XLM-V:一種嘗試解決詞彙瓶頸問題的多語言屏蔽語言模型新方法

  • 谷歌地圖可能很快就會提供有史以來最真實的元宇宙

  • 穩定的擴散AI為VR和元宇宙創造夢想世界

《ControlNet 幫助您打造完美雙手穩定擴散 1.5》一文首先出現在 Metaverse Post 上。