![[FramePack] 入門講座 #04:初期テスト - 1キャラ×1モーションで試す](https://humanxai.info/images/uploads/framepack-practice-04.webp)
初期テストの目的
FramePack-eichiは、複雑な動きや複数キャラよりも、1キャラが1つの動作を行う単純な構成で最も安定した出力が得られます。
この講座ではまず「最小構成で1本成功体験を得る」ことを目的に、実際に1キャラ×1モーションで生成してみます。
推奨構成(最も安定するパターン)
要素 | 内容 |
---|---|
キャラ | 1体のみ(上半身のみが望ましい) |
モーション | 手を振る・まばたき・髪がなびくなどの1動作 |
背景 | シンプル or 無地が理想(ブレを防ぐ) |
時間 | 2秒〜3秒(30〜60フレーム程度) |
出力形式 | 連番画像 → ffmpegで動画化(GUIなら自動) |
プロンプト例(Stable Diffusion)
a close-up portrait of a young girl waving hand, anime style, soft lighting, dynamic hair, looking at viewer, white background, high quality,gentle smile
Negative Prompt: multiple faces, blurry, low quality, extra limbs
Stable Diffusion checkpointで画像作成。
今回は、解像度を「1200x700」にしてみました。
モデルは「CyberRealistic Pony Catalyst」を利用。

CyberRealistic Pony Catalyst - Catalyst v2.0 | Stable Diffusion Checkpoint | Civitai
✨🧬 CyberRealistic Pony Catalyst Beta? Nah — this is the breeding ground for the future. CyberRealistic Pony Catalyst is the wild child of the Cyber...
https://civitai.com/models/1502316/cyberrealistic-pony-catalyst![[FramePack] 入門講座 #04:Stable Diffusion向け画像生成](https://humanxai.info/images/uploads/framepack-practice-04-sd-img-01.jpg)
完成した画像は以下:
![[FramePack] 入門講座 #04:Stable Diffusion向け画像生成 サンプル](https://humanxai.info/images/uploads/framepack-practice-04-sd-img-02.png)
実行方法(webui版想定)
run_endframe_ichi.bat
またはrun.bat
を実行
![[FramePack] 入門講座 #04: run_endframe_ichi.bat または run.bat を実行](https://humanxai.info/images/uploads/framepack-practice-04-run-bat.jpg)
- ブラウザでGradio UIが開く
![[FramePack] 入門講座 #04: ブラウザでGradio UIが開く](https://humanxai.info/images/uploads/framepack-practice-04-web-ui.jpg)
-
以下を設定:
- 元画像:事前に生成した1枚絵
- フレーム数:1秒 33(2~3秒)
- モーション方向:前後 or 左右でテスト(webuiには項目なし)
- 補足:
FramePack-eichi(WebUI版)では、モーションの方向は内部的に「自動生成・暗黙制御」されていると考えられます。- 本来のCLI版 infer.py では、YAMLで motion_direction: “horizontal” などと書ける可能性がありました。
- しかしWebUI化されたeichiでは、以下のようなUIの簡略化/暗黙制御が行われていると考えられます:
- 本来のCLI版 infer.py では、YAMLで motion_direction: “horizontal” などと書ける可能性がありました。
しかしWebUI化されたeichiでは、以下のようなUIの簡略化/暗黙制御が行われていると考えられます:
モーション制御方法 | 状況 |
---|---|
明示的な方向指定(horizontal / vertical) | ❌ UI上には存在しない |
暗黙のプロンプト制御(“waving hand” など) | ✅ 描写内容によってモーションが決まる可能性 |
LoRAや内部重みで自動方向推定 | ✅ 構成により変動(モデル依存) |
![[FramePack] 入門講座 #04: WebUI設定 01](https://humanxai.info/images/uploads/framepack-practice-04-web-ui-02.jpg)
![[FramePack] 入門講座 #04: WebUI設定 02](https://humanxai.info/images/uploads/framepack-practice-04-web-ui-03.jpg)
- プロンプト入力
初回は「髪がなびく」「軽く瞬き」などから始めると◎
髪がなびく
Hair fluttering
軽く瞬き
Blink lightly
デフォルト設定では「簡単な体の動きをしている」というプロンプトが入ってますが、このままでもOKです。
A character doing some simple body movements.
![[FramePack] 入門講座 #04: WebUI設定 02](https://humanxai.info/images/uploads/framepack-practice-04-web-ui-05.jpg)
- 実行ボタンをクリック
![[FramePack] 入門講座 #04: WebUI設定 03](https://humanxai.info/images/uploads/framepack-practice-04-web-ui-04.jpg)
- 生成された連番画像 or 動画を確認
大きな動きは無いですが、風で髪がなびく感じがアニメーションで上手く作られているのがわかります。
生成結果の確認ポイント
- キャラの目や顔のブレがないか
- モーションが自然か・途切れないか
- 背景が揺れたり、色ズレしていないか
FramePackでの動画生成では、Stable Diffusion同様にガチャ要素がある為、上手く動かない場合は、何度か動画生成を繰り返すと希望のアニメーションが得られます。
何度も生成ボタンを押すのが面倒な場合は、「 バッチ処理回数 」を変更する事で、動画を生成する回数を変更できます。
![[FramePack] 入門講座 #04: WebUI設定 04](https://humanxai.info/images/uploads/framepack-practice-04-web-ui-06.jpg)
所感とTips
- eichiは特に「顔まわりの安定性」が高く、細やかな演技が得意
- 元画像の品質が高ければ、ブレも最小限に抑えられる
- 逆に複雑な背景や衣装、小物は破綻しやすいので注意
次回予告
👉 [FramePack入門講座 #05:プロンプト調整術と失敗例集]
次回は、生成結果の質をさらに高めるためのプロンプト調整テクニックや、よくある失敗例とその回避法について紹介していきます。
💬 コメント