Stable Diffusion

Stable DiffusionでLoRAを自作する方法|学習手順とツール解説【初心者向け】

目次

はじめに

Stable Diffusionを使って、

自分だけのキャラクターや作風を

AIに学ばせたい——

そんな願いを叶えてくれるのが

「LoRA(Low-Rank Adaptation)」

という技術です。

「でも、学習って難しそう…」
「どんなツールが必要?」
「パソコンのスペックってどれくらい?」

そんな疑問を抱えているあなたに向けて、

本記事では「Stable Diffusion LoRA学習方法」

をゼロから丁寧に解説します。

専門用語はなるべくやさしく、

ツールの名前や操作方法も

できるだけ具体的に紹介しますので、

初めての方でも安心して読めますよ!

Stable Diffusion LoRA学習方法1:LoRAってなに?その特徴とメリット

LoRAとは?

LoRA(Low-Rank Adaptation)は、

Stable Diffusionのような大きなAIモデルに、

新しいキャラクターやスタイルを

「追加学習」できる軽量な手法です。

もともと学習済みの大規模モデルの構造は

そのままに、「追加情報」だけを

学習させるというのがLoRAの基本的な考え方。

これにより、

非常に軽く・速く・少ないデータ量で

学習できるのが大きなメリットです。

メリットまとめ

  • 少ない画像で学習できる(10〜50枚程度でOK)
  • モデル本体を変更しないので壊れる心配なし
  • 出来上がったLoRAモデルはとても軽量(数MB程度)
  • WebUI上で自由にON/OFFや強度調整が可能

Stable Diffusion LoRA学習方法2:この記事の目的と対象読者

この記事は、

以下のような方を対象にしています

  • AI画像生成が初めてだけど、LoRAをやってみたい人
  • DreamBoothより簡単で軽い学習方法を探している人
  • Stable Diffusion WebUIの操作に慣れてきた中級者

途中で挫折しないよう、できるだけ図解的に、

実際に使われているツールや

事例を交えながら進めていきますね。

Stable Diffusion LoRA学習方法3:LoRAと他の学習手法の違い

他の人気のある学習手法との

違いも押さえておくと、

LoRAの強みがより分かりやすくなります。

比較表:LoRA vs DreamBooth vs ファインチューニング

手法学習データ数VRAM消費モデルサイズ特徴
DreamBooth多め(100枚〜)多い数GB以上高精度な再現だが重い
ファインチューニング非常に多い非常に多い非常に大きい元のモデル全体を変更する必要あり
LoRA少なめ(10〜50枚)少ない数MB程度軽量で簡単、学習時間も短い

実際、最近の人気モデル共有サイト(CivitAIやHuggingFace)でも、

LoRA形式のモデルがどんどん増えています。

Stable Diffusion LoRA学習方法4:学習に必要な準備と環境

必須ソフトウェア・ツール一覧

以下のツールを

インストール・準備しておきましょう。

  • Stable Diffusion WebUI(AUTOMATIC1111)
  • Python(3.10推奨)
  • Git
  • 学習ツール(例:Kohya's GUI、sd-webui-train-tools)

インストール方法が不安な方は、

以下のnote記事が参考になります

推奨ハードウェア環境

  • GPU:NVIDIA RTX3060以上(VRAM12GB推奨)
  • CPU:RyzenやCore i5以上
  • ストレージ:約20GB以上の空き容量

Stable Diffusion LoRA学習方法5:学習データの集め方と整理

LoRA学習には、

一貫性のある画像が必要です。

ここが成功のカギ!

データ収集のポイント

  • 同じキャラクターやスタイルの画像を10〜50枚程度
  • 顔やポーズがはっきり見える画像を選ぶ
  • 背景はシンプルなものが好ましい

キャプション作成

各画像に対応する

キャプション(説明テキスト)も重要です。

例えば

  • 「1girl, brown hair, ponytail, school uniform」
  • 「smiling, standing pose, background_white」

キャプションの自動生成には

「PNG Maker」や「AI Respecter」のツールが

便利です。

Stable Diffusion LoRA学習方法6:実際の学習手順をステップごとに解説

いよいよ本番!

学習は以下のステップで進めます。

ステップ1:画像とキャプションをフォルダにまとめる

/my_training_data/
├─ image01.png
├─ image01.txt
├─ image02.png
├─ image02.txt

ステップ2:Kohya's GUIで学習設定

  • モード:「LoRA」または「LyCORIS」
  • 画像フォルダ:train_data_dir に指定
  • 出力フォルダ:output_dir に指定

ステップ3:パラメータの設定

項目推奨値
epoch数10〜20
batch size2〜4
学習率1e-4〜1e-5
resolution512×512

開始ボタンを押すと、数時間〜半日程度で

学習が完了します。

ステップ4:結果を確認し、モデルを保存

作成されたLoRAファイル(.safetensorsなど)は、

WebUIの models/Lora/

移動しておきましょう。

Stable Diffusion LoRA学習方法7:作成したLoRAモデルを活用する方法

LoRAモデルを作って満足してしまうのは

もったいない!

せっかくなので、

Stable Diffusion WebUIで

「実際に使ってみる」ことで初めてその効果を

体感できます。

以下では、

作成したLoRAモデルを

Stable Diffusion WebUIで使う方法

ステップ形式で紹介していきますね。

ステップ1:LoRAモデルを指定フォルダに入れる

作成した

LoRAファイル(.safetensorsなど)は、

以下の場所に入れましょう

/stable-diffusion-webui/models/Lora/

このフォルダに置いておけば、

WebUI起動時に自動で認識してくれます。

補足:LoRAが表示されないときのチェックポイント

LoRAファイルを配置しても

WebUIに表示されない場合、

まずは保存場所とファイル形式

確認しましょう。

特にありがちなのが以下のようなミスです

  • ファイルを間違ったフォルダ(例:Checkpoint用のフォルダ)に入れてしまっている
  • 拡張子が .ckpt.pt のままで、LoRA形式の .safetensors に変換されていない

対策としては、

  • WebUIの /models/Lora/ フォルダに正しく配置されているか再確認
  • .safetensors 形式で保存されているかチェック
  • WebUIを再起動してLoRA一覧が更新されるか試してみましょう

ステップ2:WebUIの「Additional Networks」タブを開く

AUTOMATIC1111版のWebUIには、

LoRAを管理・適用するための

「Additional Networks」または

「LoRA」タブがあります。

  • 上部メニューで「Additional Networks」を選ぶ
  • 「LoRA」タブをクリックして一覧を表示

ここに自作のLoRAが表示されていれば

成功です!

ステップ3:LoRAを選択して強度を調整

表示されているLoRAモデルの横にある

スライダーで適用の強度(Weight)を

設定します。

おすすめの初期設定は、

  • 0.6〜0.8(自然に反映される)
  • 1.0以上(強く出したいとき)
  • 0.3以下(軽く反映したいとき)

モデルによって最適値は異なるので、

いろいろ試してみましょう。

ステップ4:プロンプトにトリガーワードを入れる

LoRAモデルは、

学習時に付けたタグ(キャプション)を

トリガーとして動作します。

たとえば「1girl, twintail, red eyes」など、

学習画像に使ったキーワードを

プロンプトに入れてみてください。

prompt: 1girl, twintail, red eyes, looking at viewer, school uniform
  • LoRAの効果がしっかり出るようになります
  • あえてLoRAの要素を強調しない自由な構図ももちろんOK!

ステップ5:画像を生成して結果を確認

プロンプトを入力し、

LoRAを適用した状態で

「Generate」ボタンをクリック!

  • 思い通りのキャラクターになってる?
  • 表情や髪型は学習通り?
  • 背景やポーズに影響が出てる?

もしイメージ通りじゃなければ、

「LoRAの強度」や「プロンプトのタグ」を

少しずつ調整していくのがコツです。

活用のアイデア

  • 複数のLoRAを組み合わせてみる(キャラ+服装、スタイル+構図)
  • 1枚の画像で比較するために、強度を段階的に変えて生成
  • あえて学習と違うプロンプトを入れて、"崩し"効果を試す

Stable Diffusion LoRA学習方法8:よくあるトラブルと解決策

LoRA学習中や生成時に

トラブルが発生することはよくあります。

そこで、代表的な例と対策を紹介します。

学習が途中で止まる

  • VRAM不足が主な原因です。
  • 解像度を512×512以下に落とす、batch sizeを1にすることで改善される場合があります。
  • パソコンのメモリが逼迫している場合は、他のアプリを閉じましょう。

出力された画像がイメージと違う

  • キャプションが不適切な可能性があります。再確認して、できるだけ具体的なタグにしましょう。
  • LoRAの強度(weight)を0.3〜1.0の範囲で調整してみましょう。

学習が終わってもLoRAがWebUIに表示されない

  • models/Lora フォルダに正しい形式(.safetensorsなど)で保存されているか確認。
  • WebUIの「Additional Networks」機能が有効になっているかもチェックしてください。

Stable Diffusion LoRA学習方法9:作成したモデルの共有と注意点

共有方法

  • CivitAIHugging Faceでアップロードすることで、多くのユーザーと共有可能です。
  • プレビュー画像や使用例、プロンプト例を記載しておくとダウンロード数が増えやすくなります。

注意点

  • 使用した画像素材が商用利用・再配布可能か確認しましょう。
  • 学習対象が他者の著作物(キャラクター・イラストなど)の場合、許諾が必要な場合があります。
  • モデル配布時は、ライセンス表記や使用条件を明記するのがマナーです。

まとめ|Stable Diffusion LoRA学習方法の振り返りと次のステップ

ここまで、Stable Diffusionで

LoRAモデルを自作するための手順を、

初心者にもわかりやすく解説してきました。

ポイントをもう一度おさらいしてみましょう。

本記事のまとめポイント

  • LoRAは軽量かつ高速学習が可能な追加学習手法
  • 必要な画像数が少なく、個人でも簡単に導入可能
  • 学習ツールはGUI対応のものが多く、操作も直感的
  • WebUIでのLoRA使用も簡単、強度調整も自在
  • モデル共有時は素材のライセンスや使用条件に注意

次にやるべきこと

  • 自作LoRAを複数作って組み合わせを試す
  • キャプションの工夫で出力精度をさらにアップ
  • 他の人が作成したLoRAモデルを研究・活用する
  • より高精度なモデル(SDXLなど)への応用にも挑戦!

参考リンクまとめ

おわりに

LoRAを使えば、

Stable Diffusionでの画像生成がもっと自由に、

もっと自分らしくなります。

「自分だけのキャラを作りたい」
「推しの雰囲気を再現したい」
「独自の画風を学ばせて作品を量産したい」

そんな夢を、

ほんの数十枚の画像とちょっとした設定で

叶えられる。LoRAは、まさに

次世代のクリエイティブツールです。

最初の一歩はちょっと大変かもしれません。

でも、一度やってみれば、

きっと「もっと早くやればよかった!」と

感じるはず。

この記事がLoRAに挑戦する

きっかけになれば嬉しいです。

  • この記事を書いた人

すー | Suu

千葉県出身 旅とグルメが大好き フリーランスWebデザイナー

-Stable Diffusion