先日、Wan2.2を動作させるための基本的な環境構築までは完成させることができました。
おやおや、そんな記事知らないぞ?という方はこちらをご一読ください。
今日はその続きの、「ComfyUIにWan2.2をインストールする」というところまでを解説していきたいと思います。
ローカル環境でWan2.2を動かせたらいいですよね?
果たしてうまくインストールできるでしょうか?
ドキドキです!
さぁ、いってまいりましょー!
ComfyUIにWan2.2を載せてみよう!
Wan2.2とは?
Wan2.2は、最新の動画生成AIモデルで、
- テキスト→動画(T2V)
- 画像→動画(I2V)
- テキスト+画像→動画(TI2V)
など、多彩な生成モードを搭載。
しかも商用利用OK(Apache 2.0ライセンス)です。
Wan2.2 5Bモデルのインストール手順(Windows編)
1. 動作環境の確認
Wan2.2の5Bモデルは、AIによる高精度かつ爆速の動画生成が魅力ですが、その分PCへの負荷も大きめ。
スムーズに動かすためには、まず自分のPCが必要スペックを満たしているかをチェックしましょう。
項目 | 最低動作環境 | 推奨環境(快適動作) |
---|---|---|
OS | Windows 10 / 11 (64bit) | Windows 11 (最新更新適用) |
CPU | Intel Core i5 第10世代以上 または Ryzen 5 3600以上 | Intel Core i7 第12世代以上 |
GPU(VRAM) | NVIDIA RTX 4080以上(VRAM 16GB以上) | NVIDIA RTX 4080以上(VRAM 16GB以上) |
メモリ(RAM) | 16GB | 32GB以上 |
ストレージ | 空き容量 20GB以上(SSD推奨) | NVMe SSD(読み込み速度 3000MB/s以上) |
Python | Python 3.10 ~ 3.11 以上 | Python 3.12 |
ComfyUI | インストール済み |
GPUはNVIDIA製(CUDA対応)が必須。AMDやIntel内蔵GPUでは
動作不可のケース多数。
VRAM不足の場合は出力解像度を下げると安定。
HDDでは非常に遅いので、必ずSSD以上で運用。
ここまでの環境構築は、前回やりましたので割愛させていただきます。
2. Git をインストールする方法
Git は pip ではインストールできません。
Python パッケージではなく、独立したコマンドラインツールだからです。
Windows では公式インストーラーから入れるのが確実です。
手順1. 公式サイトから Windows 用 Git をダウンロード
ダウンロードはこちら。

手順2. インストーラーを起動







↑「Git from the command line and also from 3rd-party software」 を選択。






インストールが開始されます。


手順3. Anaconda PowerShellを再起動
インストール完了後、Anaconda PowerShell を閉じて再起動します。
手順4. バージョン番号が表示されるかの確認
動作確認をします。次のコマンドを打ち、バージョン番号が表示されればインストール成功です。
git --version

3. Wan2.2 を GitHub からダウンロード
mkdir C:\comfyui\extensions
cd C:\comfyui\extensions
git clone https://github.com/Wan-Video/Wan2.2.git
cd Wan2.2

ここまで、案外すんなり来て驚いています(Gitのインストールで戸惑ったくらいでした)。
4. flash_attn を使わないバージョンでインストール
まず、NumPyが再度邪魔をしてくるので、また対策を取ります。次のコマンドを入力します。
python -m pip install numpy==1.26.4
Wan2.2 は flash_attn が必須ではないので、まず requirements から除外します。
cd C:\comfyui\extensions\Wan2.2
findstr /V "flash_attn" requirements.txt > requirements_no_flash.txt
python -m pip install --upgrade pip wheel setuptools
python -m pip install -r requirements_no_flash.txt


5. モデルファイル(5Bモデル)の取得と配置
5B ハイブリッドモデルは Hugging Face や ModelScope に公開されています。
pip install "huggingface_hub[cli]"
huggingface-cli download Wan-AI/Wan2.2-TI2V-5B --local-dir ./models/TI2V-5B
このモデルは 720p・24fps に対応し、汎用GPUでも動作が確認されています。この作業は割と時間を食い、CPUも結構使用しましたので、手の空いているときに作業されたほうが良いかもしれません。

↑インストール中の様子。時間も結構かかっていますし、CPU使用率も高いです。

この画面になったら、あと一息です。ここまでトライ&エラーで何時間かかったことでしょう。もう考えることをやめました。
まぁ、書かれている通りにインストールされている皆さまにとっては、爆速マスターですので、タイトルに偽りなしですよ!
5. モデル本体・VAE・テキストエンコーダーのインストール
フォルダ構造例:
C:\comfyui\
├─ models\
│ ├─ diffusion_models\
│ │ └─ wan2.2_ti2v_5B_fp16.safetensors
│ ├─ vae\
│ │ └─ wan2.2_vae.safetensors
│ └─ text_encoders\
│ └─ umt5_xxl_fp8_e4m3fn_scaled.safetensors
└─ extensions\
└─ Wan2.2\
以下のスクリプトを、「C:\comfyui」下に、「download_wan2_2.py」という名前で保存します。
import os
from huggingface_hub import hf_hub_download
# 保存先フォルダを作成
os.makedirs("C:/comfyui/models/diffusion_models", exist_ok=True)
os.makedirs("C:/comfyui/models/vae", exist_ok=True)
os.makedirs("C:/comfyui/models/text_encoders", exist_ok=True)
# リポジトリ名
repo_id = "Comfy-Org/Wan_2.2_ComfyUI_Repackaged"
# 1. Diffusionモデル
hf_hub_download(
repo_id=repo_id,
filename="split_files/diffusion_models/wan2.2_ti2v_5B_fp16.safetensors",
local_dir="C:/comfyui/models/diffusion_models"
)
# 2. VAEファイル
hf_hub_download(
repo_id=repo_id,
filename="split_files/vae/wan2.2_vae.safetensors",
local_dir="C:/comfyui/models/vae"
)
# 3. テキストエンコーダー
hf_hub_download(
repo_id=repo_id,
filename="split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors",
local_dir="C:/comfyui/models/text_encoders"
)
print("すべてのモデルファイルのダウンロードが完了しました。")
「Anaconda PowerShell」で、次のコマンドを実行。
cd C:\comfyui
python download_wan2_2.py
すると、「C:\comfyui\models\
」以下にそれぞれのファイルが自動で配置されます。

6. モデル本体・VAE・テキストエンコーダーの登録
通常、ComfyUI ではテンプレートは次のフォルダにあります。
C:\comfyui\templates
もしなければ templates
フォルダを作って大丈夫です。
mkdir C:\comfyui\templates

作成した「C:\comfyui\templates」下に移動し、「wan2.2_5B_template.yaml」ファイルを作成して、次のスクリプトを書いて保存します。
# wan2.2_5B_template.yaml
name: "Wan2.2 5B"
description: "Wan2.2 5Bモデル + VAE + テキストエンコーダー"
diffusion_model: "C:/comfyui/models/diffusion_models/wan2.2_ti2v_5B_fp16.safetensors"
vae: "C:/comfyui/models/vae/wan2.2_vae.safetensors"
text_encoder: "C:/comfyui/models/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors"
# 必要に応じてワークフローの初期設定ノードも追加可能
workflow:
- type: "model_loader"
model: "C:/comfyui/models/diffusion_models/wan2.2_ti2v_5B_fp16.safetensors"
- type: "vae_loader"
vae: "C:/comfyui/models/vae/wan2.2_vae.safetensors"
- type: "text_encoder_loader"
text_encoder: "C:/comfyui/models/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors"
ここまでできたら、一旦、Anaconda PowerShellを再起動します。
7. まとめると Wan2.2 のインストール手順はこうなります
mkdir C:\comfyui\extensions
cd C:\comfyui\extensions
git clone https://github.com/Wan-Video/Wan2.2.git
cd Wan2.2
python -m pip install numpy==1.26.4
cd C:\comfyui\extensions\Wan2.2
findstr /V "flash_attn" requirements.txt > requirements_no_flash.txt
python -m pip install --upgrade pip wheel setuptools
python -m pip install -r requirements_no_flash.txt
# Hugging Face から 5B モデルをダウンロード
python -m pip install "huggingface_hub[cli]"
huggingface-cli download Wan-AI/Wan2.2-TI2V-5B --local-dir ./models/TI2V-5B
cd C:\comfyui
python download_wan2_2.py
8. なぜ GitHub 方式が安心か
- 公式ソース直取得:GitHub リポジトリから直接ダウンロードするため安心かつ最新版対応。
- 依存関係が可視化:
requirements.txt
によって必要ライブラリが明確。 - ComfyUI 連携:UI操作と組み合わせやすく、初心者にも優しい導入が可能。
9. 起動テスト
「Anaconda PowerShell」上から、次のコマンドを実行します。
conda activate PyTorch
cd C:\comfyui
python main.py

次にブラウザ上から、下のアドレスを入力します。
http://127.0.0.1:8188
正常に起動すれば、ブラウザが開きます。

「ノードを編集」から「Wan」などといったキーワードを入力してみます。

Wan2.2がインストールされ、ComfyUIの拡張(extension)機能として立ち上がっていることが確認できました。

テンプレートを参照をクリックし、そこからWan2.2を探すこともできます。こちらのほうが直感的に使えるかも知れませんね。
以上、お疲れ様でした。
次はいよいよ、Wan2.2を使ったAIによる動画生成編です。
最後に
これで、あなたのPCでWan2.2の5Bモデルが動く準備が整いました。
あとはプロンプトを入力して、思い通りの神動画を生成するだけです。
次回予告:
0円で爆速マスター!Wan2.2で始める神動画作成術~AIによる動画作成編
です。
次回は、クオリティと速度を両立させるプロンプト設定方法を解説していきたいと思います。おらわくわくすっぞ!
では、次回お会いしましょう。

ではでは、参考までに。
コメント