見出し画像

【中級】AI画像生成ワークフロー紹介

割引あり

想定する読者

  • Stable Diffusion webUI (forge) が利用できる人

  • IOpaint が利用できる人

  • 画像エディタを利用して基本的な画像処理ができる人

はじめに

最近の定着しつつあるワークフローを紹介します。

構図の作成

手書き、3Dモデル、その他もろもろのAI生成システムでもいいのですが、凡その構図を作成します。今回は SDXL モデルを利用します。1024x768 で生成しています。

SD1.5 モデルであれば、640x480 等が最適です。良い結果を得るためには、生成する対象物が学習時の解像度に合うようにする必要があります。学習画像のサイズではなく、対象物の解像度に合わせる事がポイントです。

※ プロンプト・ネガティブその他設定は最下部の(有料)付録部に載せています。ただし、自作モデルにチューニングしたものなので、あまり参考にならないかもしれません。

構図の作成

いろいろAI特有の問題があります。

持ち手が逆・指が潰れている


ボタンが等間隔でない

まずはこの二箇所を修正します。

IOpaint でティーカップを修正します。まだラフ画の構図段階なので、適当なクオリティで構わないです。

持ち手の削除

ボタンの修正。IOpaint で削除したあとに、ペイントソフト(GimpやKrita)で塗り潰したものです。

ボタンの修正

最終解像度でimg2img生成

軽く修正した構図(ラフ画)を元にして img2img 画像生成を行います。プロンプトとモデル(SDXL)は変更せずに、ターゲット解像度を1440x1080 にして生成します。その際のパラメータ等は、

  • アップスケーラ:4x_NMKD-Superscale-SP_17800_G

    • ESRGAN モデルです。下記モデル製作者リンクの【Upscalers - Real-World:】からダウンロードできます。実はリアル系において高解像度で高品質なものを生成する場合の胆です。知ってる人は知ってるというモデルです。このモデルはノイズも必要以上に増幅してしまうのですが、img2img ではそれが良い結果をもたらします。※ Stable Diffusion models フォルダの ESRGAN フォルダに保存すれば利用できるようになります

  • denoising strength は 0.35 程度

  • 解像度は 1440x1080

img2img SDXL 1440x1080

次に同じ解像度で img2img リファインします。(筆者の経験的に)リアル系はSD1.5が最強ですので、SD1.5 リアル・モデルを利用してリファインします。拡大しないと違いがわからないレベルですが。

※ プロンプト・ネガティブその他設定は最下部の(有料)付録部に載せています。ただし、自作モデルにチューニングしたものなので、あまり参考にならないかもしれません。

img2img SD1.5 1440x1080

仕上げ

SD1.5 をリファインとして利用するコツは、インペイントで範囲を制限する事です。全体を一度に生成すると、高い解像度だったとしても表現の自由度が足りないため、部分的な精細度が下がるのだと思います。

手元

まずは手元の仕上げです。

手元の仕上げ

顔をインペイントして精細度を上げます。重要なポイントは、学習時の対象の解像度に合わせる事です。たとえば、このモデルでは、768x768で人の顔アップが学習されている事が多いので、インペイント時にその範囲に合わせて img2img します。

顔の仕上げ

プロンプトに「close eyes」を追加して目を閉じさせています。

完成

完成です。

完成

付録

この記事で利用したプロンプト等を掲載しています。ただし、モデル依存なので、あまり参考にならないかもしれません。

ここから先は

1,809字
この記事のみ ¥ 100〜

この記事が気に入ったらサポートをしてみませんか?