[FramePack] 入門講座 #04:初期テスト - 1キャラ×1モーションで試す

初期テストの目的

FramePack-eichiは、複雑な動きや複数キャラよりも、1キャラが1つの動作を行う単純な構成で最も安定した出力が得られます。

この講座ではまず「最小構成で1本成功体験を得る」ことを目的に、実際に1キャラ×1モーションで生成してみます。


推奨構成(最も安定するパターン)

要素 内容
キャラ 1体のみ(上半身のみが望ましい)
モーション 手を振る・まばたき・髪がなびくなどの1動作
背景 シンプル or 無地が理想(ブレを防ぐ)
時間 2秒〜3秒(30〜60フレーム程度)
出力形式 連番画像 → ffmpegで動画化(GUIなら自動)

プロンプト例(Stable Diffusion)

a close-up portrait of a young girl waving hand, anime style, soft lighting, dynamic hair, looking at viewer, white background, high quality,gentle smile

Negative Prompt: multiple faces, blurry, low quality, extra limbs

Stable Diffusion checkpointで画像作成。
今回は、解像度を「1200x700」にしてみました。
モデルは「CyberRealistic Pony Catalyst」を利用。

[FramePack] 入門講座 #04:Stable Diffusion向け画像生成

完成した画像は以下:

[FramePack] 入門講座 #04:Stable Diffusion向け画像生成 サンプル

実行方法(webui版想定)

  1. run_endframe_ichi.bat または run.bat を実行
[FramePack] 入門講座 #04: run_endframe_ichi.bat または run.bat を実行
  1. ブラウザでGradio UIが開く
[FramePack] 入門講座 #04: ブラウザでGradio UIが開く
  1. 以下を設定:

    • 元画像:事前に生成した1枚絵
    • フレーム数:1秒 33(2~3秒)
    • モーション方向:前後 or 左右でテスト(webuiには項目なし)
  • 補足:
    FramePack-eichi(WebUI版)では、モーションの方向は内部的に「自動生成・暗黙制御」されていると考えられます。
    • 本来のCLI版 infer.py では、YAMLで motion_direction: “horizontal” などと書ける可能性がありました。
    • しかしWebUI化されたeichiでは、以下のようなUIの簡略化/暗黙制御が行われていると考えられます:
    • 本来のCLI版 infer.py では、YAMLで motion_direction: “horizontal” などと書ける可能性がありました。

しかしWebUI化されたeichiでは、以下のようなUIの簡略化/暗黙制御が行われていると考えられます:

モーション制御方法 状況
明示的な方向指定(horizontal / vertical) ❌ UI上には存在しない
暗黙のプロンプト制御(“waving hand” など) ✅ 描写内容によってモーションが決まる可能性
LoRAや内部重みで自動方向推定 ✅ 構成により変動(モデル依存)
[FramePack] 入門講座 #04: WebUI設定 01
[FramePack] 入門講座 #04: WebUI設定 02
  1. プロンプト入力

初回は「髪がなびく」「軽く瞬き」などから始めると◎

髪がなびく

Hair fluttering

軽く瞬き

Blink lightly

デフォルト設定では「簡単な体の動きをしている」というプロンプトが入ってますが、このままでもOKです。

A character doing some simple body movements.
[FramePack] 入門講座 #04: WebUI設定 02
  1. 実行ボタンをクリック
[FramePack] 入門講座 #04: WebUI設定 03
  1. 生成された連番画像 or 動画を確認

大きな動きは無いですが、風で髪がなびく感じがアニメーションで上手く作られているのがわかります。


生成結果の確認ポイント

  • キャラの目や顔のブレがないか
  • モーションが自然か・途切れないか
  • 背景が揺れたり、色ズレしていないか

FramePackでの動画生成では、Stable Diffusion同様にガチャ要素がある為、上手く動かない場合は、何度か動画生成を繰り返すと希望のアニメーションが得られます。

何度も生成ボタンを押すのが面倒な場合は、「 バッチ処理回数 」を変更する事で、動画を生成する回数を変更できます。

[FramePack] 入門講座 #04: WebUI設定 04


所感とTips

  • eichiは特に「顔まわりの安定性」が高く、細やかな演技が得意
  • 元画像の品質が高ければ、ブレも最小限に抑えられる
  • 逆に複雑な背景や衣装、小物は破綻しやすいので注意

次回予告

👉 [FramePack入門講座 #05:プロンプト調整術と失敗例集]


次回は、生成結果の質をさらに高めるためのプロンプト調整テクニックや、よくある失敗例とその回避法について紹介していきます。