Stable Diffusion

Stable Diffusion 同じキャラ【完全再現テク】

はじめに

同じキャラを再現したい!と

思ったことはありませんか?

「この子、また描きたい!でも前と顔が違う…」

Stable Diffusionでイラストを作っていると、

同じキャラクターを

何度も再現することの難しさ

直面する方は多いはず。

AIにイラストを描かせるとき、

自然なバリエーションが

生まれるのは魅力ですが、

「シリーズ作品にしたい」

「漫画っぽく同じキャラを登場させたい」と

思ったときには、

再現性(キャラの一貫性)

とても大切になってきます。

この記事では、

Stable Diffusion 同じキャラを再現するためのテクニック」を

初心者向けにわかりやすく

解説していきます!

Stable Diffusion 同じキャラ1:キャラ再現性の重要性とは?

Stable Diffusionでの「キャラ再現性」とは、

前に描いたキャラクターと同じ顔・雰囲気で

何度も描けることを意味します。

なぜキャラ再現が重要?

  • シリーズ漫画やストーリー制作に役立つ
  • SNSやブログ投稿に統一感が出る
  • オリジナルキャラのブランディングに有効

生成系AIは「それっぽさ」は得意でも、

「前と同じ」を再現するのが苦手。

だからこそ、手法を知っておくことが大切です。

Stable Diffusion 同じキャラ2:再現性が低くなる原因と課題

Stable Diffusionで同じキャラを描こうとしても、

こんな問題が出てきます

  • 毎回違う顔になる
  • 髪型や色が微妙にブレる
  • 目の形や雰囲気が変わる
  • 表情が極端すぎることも…

これは、AIが「ランダム要素」

含んだ生成をしているから。

でも、ちょっとした工夫を加えるだけで、

「同じ子だ!」と思えるキャラが

描けるようになります。

Stable Diffusion 同じキャラ3:再現性を高める基本テクニック

Seed値の固定で安定感アップ

まずやるべきは、

Seed(シード)値を固定すること。

Seedとは、

画像生成時の「ランダムのスタート地点」を

示す番号です。

同じSeed+同じプロンプトなら、

同じ画像が生成されます。

  • やり方:AUTOMATIC1111のUIでSeed欄に任意の数字を入力(例:123456)
  • 応用:ポーズや服だけを変えて、顔の雰囲気はそのままに!

プロンプトでキャラの特徴をしっかり指定

キャラの再現には、

詳細なプロンプト設計がカギです。

"1girl, silver hair, red eyes, twin tails, black dress, serious expression"

このように、

髪の色・目の色・髪型・服装・表情まで

細かく指定しましょう。

ポイント

  • キャラの「記号的要素」を盛り込む(例:眼帯、猫耳、ほくろ)
  • 余分な要素は入れない(例:glassesが不要なら記載しない)

ネガティブプロンプトで余計な要素をカット

意図しない表情や装飾を減らすために、

ネガティブプロンプト(除外指定)

使いましょう。

bad anatomy, extra fingers, lowres, ugly, mutated, wrong hands

また、「他の服に勝手に変わる」

「髪型が崩れる」などが起きたら、

それをネガティブに

追加してあげるのも効果的です。

Stable Diffusion 同じキャラ4:ControlNetで高度な再現!

ControlNetを使うことで、

より正確で多様なキャラ再現が

可能になります。

Reference Onlyで顔を固定、服装や背景は自由に

ControlNetの

「Reference Only」機能は、

顔の雰囲気を維持しつつ、

ポーズや背景を自由に変えることができます。

  • 画像をControlNetに読み込む
  • モデルに「reference_only」を選ぶ
  • 同じ顔で、海辺や教室など背景を変えてみよう!

IP-AdapterやFaceIDで顔の特徴を保持

より高度な再現がしたいときは、

IP-AdapterやFaceIDが便利です。

  • 顔画像から特徴量を抽出
  • 他のシーンに同じ顔を再適用

たとえば、「カフェで微笑む」

「雨の中で真剣な表情」など、

シーンだけを変えて

同じ顔をキープできます。

Inpaint機能で部分的に修正・再生成

「ほぼ完璧だけど、口元が変…」

そんなときにはInpaint(インペイント)

使いましょう。

  • Web UIの「Inpaint」モードで修正したい部分を選択
  • 同じSeed+修正用プロンプトで微調整
  • 表情のバリエーション生成にも活用できます!

Stable Diffusion 同じキャラ5:LoRA・DreamBoothなしで再現性アップ

「LoRAやDreamBoothって難しそう…」

という方も大丈夫。

以下の方法で十分再現性が高まります。

Taggerで画像からプロンプト抽出

生成した画像を

Tagger(例:DeepDanbooru)で読み取って、

自動でプロンプトを抽出できます。

  • 再現したい画像をアップロード
  • 自動タグを抽出して再利用
  • キャラの特徴を安定して再現できる

プロンプトテンプレートをパターン化して使う

お気に入りのキャラができたら、

プロンプトをテンプレ化しておきましょう。

"masterpiece, 1girl, long silver hair, red eyes, gothic dress, serious face, full body"

このテンプレをベースにして、

「背景」や「服装」だけを

変えるのがコツです。

ControlNetのモデル選び&設定も再現性に影響

ControlNetの「種類」や

「Weight(重み)」

「Guidance(ガイド)」も意外と重要です。

  • OpenPose:ポーズ再現に便利
  • Canny:輪郭・形状を再現
  • Depth:立体感のある構図に有効

設定ミスで「顔が崩れる」こともあるので、

バージョンや値の調整をしながら

ベストを探ってみましょう!

Stable Diffusion 同じキャラ6:実践例で理解を深めよう!

基準画像の作成&保存

まずは、「この子が基準キャラ!」

という一枚を作ります。

  • Seedを記録
  • 使用プロンプトを保存
  • 画像をTaggerでタグ化

この画像を基にすれば、

後は自由に応用ができます!

表情やポーズのバリエーションを作成

OpenPoseなどを使って、

ポーズや表情のバリエーションを

生成しましょう。

  • smile, angry, crying, blushing などの表情をプロンプトで変更
  • ポーズも「sitting」「running」「peace sign」などで切り替え

背景・服装を変えてシーンを多様化

最後に、背景や服装を変えるだけで

世界観が一気に広がります。

  • 海辺、教室、夜の街、ベッドルーム…
  • 制服、ドレス、水着、戦闘服など服装も変更可能

「同じキャラだけど、いろんな物語を感じられる」

そんな作品がどんどん生まれます!

まとめ

再現性を高めるポイントまとめ

  • Seedを固定して一貫性を保つ
  • プロンプトを丁寧に作る(細部まで指定)
  • ControlNetやIP-Adapterで高度な再現
  • テンプレ化&Tagger活用で効率UP
  • Inpaintで微調整しながら完成度を高める

今後の展望と可能性

技術はどんどん進化しています。

今後は、

  • LoRA不要で高精度な再現
  • マルチキャラの共存
  • 動画や漫画への展開

など、さらに夢が広がるでしょう!

Stable Diffusionは、

工夫次第で

「同じキャラを自分だけの世界で生きさせる」ことができます。

創作活動が、もっと自由で

楽しくなりますように!

  • この記事を書いた人

すー | Suu

千葉県出身 旅とグルメが大好き フリーランスWebデザイナー

-Stable Diffusion