はじめに
「せっかくいいキャラクターができたのに、新しいシーンを描こうとすると別人になっちゃう…」
— そんなジレンマ、絵を作る人なら一度は経験したことがあると思います。私も“お気に入りキャラ”を何度も再現しようと試行錯誤してきました。
しかし、Midjourney は“キャラ固定(=キャラクターの一貫性を保つ)”というテーマに対して、ここ1〜2年で大きく進化してきています。特にバージョン V7 を中心とした「参照機能」の刷新は、これまで苦労していた点をだいぶ楽にしてくれています。
この記事では、私自身の試行錯誤も交えながら、2025年10月時点で使えるキャラ固定技法(メリット・注意点含め)を紹介します。
キャラ固定の必要性と歴史的背景
なぜ “キャラ固定” が難しいのか?
AI 画像生成は、テキストプロンプトと内部モデルによる解釈をもとに、画像を“新たに”描く作業です。
そのため、同じキャラクターを複数回にわたって描かせようとしても、モデルは微妙に顔の輪郭、表情、服、髪型、色味などを変えてしまいがちです。
これは「創造の自由度」を持たせつつ、多様性を出すことを優先するモデル設計の性質でもあります。
昔は、キャラクター設定を“プロンプトで詳細に書き込む”“seed(乱数シード)を使う”“キャラクターシート風に複数アングルを一枚にまとめて参照させる”などの工夫が常套手段でした。
ですが、それらは手間がかかる・再現性が保証されない・微妙にズレる、という問題が残りました。
参照機能の登場と進化の歩み
Midjourney におけるキャラ固定技術の進化を、大まかに振り返ると:
- Character Reference(Cref):V6 〜 V6.1あたりで登場した、画像をキャラクター参照用として使う機能。参照画像を指定して、同じキャラ風の描写を狙いやすくする。
- –cw(キャラクター参照ウェイト) パラメータ:参照(Cref)をどれだけ強く効かせるかを 0〜100 で制御。100 に近いほど「参照画像に近づけよう」とする傾向が強まる。
- スタイル参照(Style Reference, –sref):キャラクターそのものではなく、画風・雰囲気・色合い・筆致を参照する機能。キャラの描写の一貫性とは別軸だが、統一感を出すのに有効。
- Omni Reference(Oref / oref):V7 以降で導入された、より汎用性のある参照機能。単に「キャラクター参照」の枠を越えて「対象そのもの(オブジェクト・動物・キャラクターなど)」を参照でき、より柔軟な表現が可能になったとされます。
特に V7 以降、Cref → Omni Reference に進化したという情報が頻出しています。
例えば、Note の記事で「画風を統一する Style Reference(–sref)」と「キャラクターそのものを固定する Omni Reference(–oref)」という併用ノウハウが紹介されています。
このように、昔と比べてキャラ固定の技術基盤はかなり進化してきており、創作の自由度を保持しながらも“同じキャラらしさ”を表現しやすくなっています。
2025年10月時点での “キャラ固定” 実践ガイド
ここでは、私が実際に試して有効だと感じた方法や注意点を交えて、キャラ固定のステップを紹介します。
ステップ 1:ベースキャラクター画像を用意する
最初に、あなたが「このキャラだ!」と思える画像を最低1枚用意します。
この画像が、以降の参照基準になります。
- Midjourney で生成した画像を使う場合、なるべく “単体キャラクター + 背景をシンプルに” の構図が参照しやすいです。
- 外部画像(他アプリで描いたもの)を使いたい場合、Omni Reference のほうが対応性が高いと報じられています。
- 参照画像は、顔がはっきりわかるものを選びましょう。細部の特徴(髪型、目の形、輪郭など)が参照されやすくなります。
ステップ 2:参照画像をアップロード/指定する
Midjourney では、参照画像をプロンプトに反映させる方法があります。
Discord(従来型)
- 参照画像を Discord 上にアップロードする(または既存の画像の URL を得る)
/imagineコマンドを使うとき、プロンプト末尾に--cref [画像URL]を付け加える- 必要に応じて
--cw 数値を追加して参照強度を指定(例:--cw 100) - 他の条件(ポーズ、服装、シーンなど)をテキストで加えて絵を生成
Webインターフェース(ブラウザ版)
最近は Web 版でも参照機能を簡単に使えるようになってきています。
プロンプト入力欄横から画像をドラッグ&ドロップで読み込み、「Character Reference」や「Omni Reference」のアイコンを選んで締める操作が可能という報告があります。
Web 版では --cref を直接書かなくても、UI 上で参照設定が反映されるため、手間が減るメリットがあります。
ステップ 3:参照強度とバランスを調整する (--cw または類似機能)
参照画像通りにする “固さ” をコントロールできるパラメータが重要です。
--cw 100:参照強度最大。元画像にかなり忠実になろうとする。ただし完全一致とはいかないケースもある。--cw 0:参照効果ほぼ無視。キャラクター性よりプロンプトの自由を強めたい場合に使う。 (仕事のあれこれ)- 中間値(50〜75 あたり):参照を「ほどほどに効かせつつ、多少の変化も許容する」バランス型。多くのプロジェクトで安定を得やすいと感じます。
また、Omni Reference を使う際には、従来の Cref よりも参照強度やウェイト(重み付け)を調整できる拡張機能があるという報告もあります。
ステップ 4:Variations や Vary モードの併用活用
補助的に「Vary(変化機能)」を使うと、キャラクター性を保ちつつバリエーションを出しやすくなります。たとえば、Discord の設定で “subtle variation mode” を有効にしておくと、元画像からの微変化をベースに変化させてくれる傾向が強まるという報告があります。
このモードを使うと、ポーズを変えたい、背景を変えたい、衣装を少し変えたい…という要求に対して、元キャラとのズレを最小化しつつ描いてくれる可能性が高くなります。
ステップ 5:複数の参照画像や視点を使う(マルチビュー参照)
単一の参照画像だけでは、正面向きのみ・特定の角度しか反映されず、他の角度ではズレが出やすくなります。
そこで、複数の視点(正面、側面、斜め、背後など)を撮ったキャラ画像を併用して参照する方法があります。例として、複数 URL を --cref [URL1] [URL2] … と指定する方法が紹介されています。
Omni Reference でも同じく複数参照のサポートが報じられており、これをうまく使いこなせれば角度によるズレを軽減できる可能性があります。
ステップ 6:調整・リジェネレーションとトライアル・アンド・エラー
残念ながら、完璧な“100%同じキャラ”を自動で出すのは、まだ現実的には難しいことがあります。実際のユーザーからは以下のような声もあります:
“MJ にキャラ固定機能はすごいけど、微妙に顔がズレる。100 回リトライしても完璧にはならない。”
“CW を調整しても、顔の一致度は“まあまあ似ている”に留まることが多い。”
こうした事情を踏まえて、生成後の選別、軽い修正(Photoshop 等での補正)、プロンプト微調整、再生成などを併用することが現実的な運用です。
また、参照強度を少し落とす(CW を 80〜90 あたりに)ことでキャラクター性は保ちつつ“変化の幅”を許容する運用も、実用性が高いです。
応用・注意点・未来展望
応用アイデア:キャラクターを物語の中で使い回す
このキャラ固定技法を使えば、以下のような創作表現がやりやすくなります:
- 漫画風連載:各コマ・場面で同一キャラを登場させる
- イラスト付きストーリー:異なるシーンで同じキャラを一貫して描写
- キャラの商品化・立ち絵:キャラの顔・服装を統一して、表情違いだけ用意
- キャラクター紹介資料:正面・横顔・背面などを揃えたキャラシート風に生成
注意点・限界
- 完全一致ではない:細かい顔の特徴、凹凸、そばかす、細かい模様などは、参照してもズレが出やすいです。
- 実在人物や著作物への対応:著名人やキャラクターの再現は、モデル的にも著作権的にも難しさがあります。参照機能は主に創作者自身のキャラクターやオリジナル造形向けと考えたほうが安全です。
- 参照画像の質に依存する:ぼやけていたり、構図が悪い画像を参照にすると、生成も荒れやすくなります。
- 過度依存は創造性を阻害する可能性:参照を強くしすぎると、変化を加えたいときに硬直してしまうため、創作自由度とのバランスが大事です。
- モデル更新や仕様変更に注意:Midjourney はアップデートが頻繁で、参照機能やパラメータ仕様の変更・廃止が起こる可能性があります。
未来展望:さらなる一貫性を求めて
AI 研究の最先端では、“同一被写体を複数フレームでより忠実に描く”手法も進んでおり、論文ベースの技術も注目されています。
たとえば、近年発表された StoryBooth という手法は、テキストから複数の画像(フレーム)を生成するとき、同一被写体(=キャラクター)の一貫性を保つよう内部で注意機構を設計しており、マルチキャラクターにも対応できるよう工夫されています。
さらに、InstantCharacter といった “キャラクターパーソナライズをスケーラブルに扱う Diffusion Transformer フレームワーク” の研究も進んでいます。 (arXiv)
こうした技術が将来的に Midjourney や他の生成型 AI に取り込まれれば、キャラ固定性はさらに飛躍的に改善される可能性があります。
まとめと私の感想
私自身、趣味でイラスト制作や創作企画を試すことがあります。「キャラを使い回したい」「場面を変えてキャラを再登場させたい」…そんな場面で、これまで何度も“顔がバラバラ問題”に悩まされました。
しかし、2025年現在、Midjourney の参照機能(特に Omni Reference を中心とした手法)は、その悩みをかなり軽減してくれています。もちろん、まだ完全とは言えず、手間・工夫・再調整は不可欠ですが、「キャラ固定ができる」可能性を格段に高めてくれたのは間違いありません。