X
    Categories: Stable Diffusion

ControlNetのdw_openposeをの使い方

 

とみます(@20tomimasu)です。

 

Openposeの新しいタイプ「dw_openpose_full」が公開されたようなので、

Stable Diffusion web UI のControlNetで使ってみました。

 

棒人間の描写精度が向上していますね。

6か月でここまで進歩するのか…すごい。

 

ControlNetのopenpose、6か月前との比較

>>StableDiffusionのControlNetの始め方・使い方

 

↑当時、openposeがリリースされたときのブログを読み返している。

棒人間で、描写する人間のポーズなどを指定できた。

 

それが、今では↓

このレベルに。(ぱっと見は恐いw)

顔の表情や手の指1本まで、表現できるのか…

 

すごい進歩で。

実際に、試してみよう。

 

WEB UIでのdw_openposeの使い方

 

この方のnoteが分かりやすかった。

>>(AIイラスト)controlNETの新Preprocessor「dw openpose」を紹介(stable diffusion)

 

  1. WEB UIのアップデート
  2. ControlNetのdw_openpose_fullを有効化させる
  3. img2imgで棒人間の生成
  4. プロンプトで指定ポーズのAIイラストを生成

 

以下、画像を用いて↓

↑Extensionsより、webuiをアップデートする。

 

↑今回、試しに、過去に生成した画像を用いていく。通称、チビアイン。

 

↑dw_openpose_fullが表示されたので、これを選択する。

ついでに、モデルを用意して無かったので、ここからダウンロードした↓

 

いざ、生成‼

↑おぉー、忠実に表現されている。

 

プロンプトに、

  • a yellow cat
  • negative)  EasyNegative

だけで、100枚ほど生成すると…

↑ポーズが破綻していない、AIイラストも生成できた。

ただ、打率的には、10枚に1枚くらいで、指などの表現は、難しいみたい。

 

おそらく、今回用いたチビアインの指先が重なっていたので、

AIによる読み取り→表現がキツかったのだろう。

 

もう少し、別のポーズでも挑戦してみようかな。

ちなみに、失敗例として、飛行機ポーズなんかもw

びゅいーん。

 

おわりに

 

以上「ControlNetのdw_openposeをの使い方」でした。

 

イラスト生成AIのコマンド指示などの精度が日々向上しており。

相変わらず、発展の速い世界で。

 

1日1%の自分アップデートを続けて、レイワの発展をフォローしていきましょう。

それでは、また。

 

「普通の会社員」こそ 安定した副収入が得られる 不動産投資を

「安定した不労所得」の仕組みを作り、給与を超える家賃収入で、経済的自由を手に入れる方法はこちらから
とみます: 32歳の研究者(サラリーマン)の傍ら、DIYが得意な嫁と協力しながら大家業も。フォートナイト大好き! 今日を楽しもう~♪ ブログは毎日配信、もう3年以上。 1日1%アップデートを実践中!