Loading...
WindowsにLatentSyncで大苦戦!AIリップシンクをローカルPCで動かそうとしてエラーの地獄を見た全記録

WindowsにLatentSyncで大苦戦!AIリップシンクをローカルPCで動かそうとしてエラーの地獄を見た全記録

「ローカルPCで手軽にAIリップシンクを楽しみたい!」そんな甘い夢を見て、巷で話題の「LatentSync」をインストールしようとしたのが全ての始まりでした。まさか、これが数々のエラーという名の強敵と戦い、黒い画面(ターミナル)という名のダンジョンを彷徨う、壮大な冒険になるとは…この記事は、その血と汗と涙の全記録です。

2025-08-1511分で読める

第一章:冒険の始まり - Git Cloneと最初の洗礼

まずは基本から。GitHubからプロジェクトをダウンロード(クローン)します。ここまでは順調でした。

git clone https://github.com/bytedance/LatentSync.git
cd LatentSync

そして、説明書(README)通りにセットアップスクリプトを実行!…しようとしたら、Windowsは冷たく言い放ちます。

source setup_env.sh

実行結果source: command not found

そう、これはLinux用のコマンド。Windowsでは動かない。ここから、私の長い戦いが始まったのです。


第二章:救世主WSL2 - 新たな大地と「何も無い」現実

賢者(ネットの有識者)は言いました。「WSL2を使いなさい」と。Windows上でLinuxを動かす魔法の言葉です。

# PowerShellを管理者で開き、WSLをインストール
wsl --install

Ubuntuが起動した時は感動しました。しかし、そこはまっさらな大地。当然、Python環境を管理するCondaなど入っていません。

実行結果conda: command not found

解決策は、この新しい大地にCondaの種を蒔くことでした。

# Minicondaのインストーラーをダウンロード
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

# インストールを実行(対話形式で yes を押していく)
bash Miniconda3-latest-Linux-x86_64.sh

# ターミナルを再起動! これが超重要!

第三章:無限コンパイルエラー - g++よ、お前はどこにいる

Condaの準備も整い、今度こそライブラリをインストール!

# LatentSync用の環境を作り、有効化
conda create -n latentsync python=3.10 -y
conda activate latentsync

# いざ、インストール!
pip install -r requirements.txt

しかし、新たな壁が立ちはだかります。

実行結果error: command 'g++' failed: No such file or directory

insightfaceというライブラリのビルドに必要なC++コンパイラ(プログラムの翻訳機)が入っていなかったのです。これもLinuxの初期設定あるある。大工道具一式をインストールします。

# 必要なビルドツール一式をインストール
sudo apt update
sudo apt install build-essential

これを実行後、再度pip installを試み、ついにライブラリのインストールが完了しました。


第四章:改行コードの罠 - WindowsとLinux、見えざる壁

ライブラリも入り、満を持してセットアップスクリプトを再実行!しかし、無情にもエラーが。

実行結果No such file or directory: 'requirements.txt\r'

犯人は、WindowsとLinuxの改行コードの違い。\rという見えない文字が悪さをしていました。これをLinux形式に変換する魔法のコマンドがdos2unixです。

# 変換ツールをインストール
sudo apt install dos2unix

# スクリプトファイルをLinux形式に変換
dos2unix setup_env.sh

第五章:モデルファイルとの死闘 - 破損したデータEOFError

数々の死闘を乗り越え、ついにアプリが起動! Running on local URL... の文字に涙が出ました。

しかし、動画を生成しようとすると、またエラー。

実行結果Model checkpoints/whisper/tiny.pt not found

音声認識モデルが無い。これもスクリプトがやってくれるはずだった作業。手動でダウンロードします。

# フォルダを作り、モデルをダウンロード
mkdir -p checkpoints/whisper
wget -O checkpoints/whisper/tiny.pt https://openaipublic.azureedge.net/main/whisper/models/65147644a518d12f04e32d6f3b26facc3f8dd49e5d9baa7c52343d9b24ba2902/tiny.pt

しかし、次に待っていたのはダウンロードファイルの破損。

実行結果EOFError

ダウンロードが不完全だったようです。壊れたファイルを削除し、再ダウンロード&サイズ確認で乗り越えました。

# 壊れたファイルを削除
rm checkpoints/whisper/tiny.pt

# 再ダウンロード
wget -O checkpoints/whisper/tiny.pt https://...(上記URL).../tiny.pt

# ファイルサイズを確認!「74M」くらいあればOK!
ls -lh checkpoints/whisper/

最六章:灯台下暗し - Hugging Faceに全てがあった

心が折れかけたその時、天啓が。なんと、Hugging Faceに最新版のLatentSyncが全モデルファイル付きで公開されていたのです。

結論:最初からこれをやれば良かった。

これが、エラーの地獄から生還するための、最も確実で、最も簡単な手順です。

Hugging Faceからlatentsync_unet.ptをダウンロードしてcheckpointsフォルダに配置します。

そして/whisper/tiny.ptをダウンロードしてcheckpoints/whisperフォルダに配置します。

checkpoints/
├── latentsync_unet.pt
└── whisper/
    └── tiny.pt

そしてついに、私のローカルPCでAIが喋り出したのです。長かった…本当に長かった! しかし非力な私のPCではなかなか動画が生成できない

!しかし非力な私のPCではなかなか動画が生成できないません...

このようなエラーがでてたのに動いてるので、まあいいかと思い、そのまま動かしていましたらなんと!CPUで動いていたのです。😢

Applied providers: ['CPUExecutionProvider'], with options: {'CPUExecutionProvider': {}}
model ignore: checkpoints/auxiliary/models/buffalo_l/genderage.onnx genderage
2025-08-23 20:41:21.039152396 [E:onnxruntime:Default, provider_bridge_ort.cc:2036 TryGetProviderInfo_CUDA] /onnxruntime_src/onnxruntime/core/session/provider_bridge_ort.cc:1695 onnxruntime::Provider& onnxruntime::ProviderLibrary::Get() [ONNXRuntimeError] : 1 : FAIL : Failed to load library libonnxruntime_providers_cuda.so with error: libnvrtc.so.12: cannot open shared object file: No such file or directory

私のPCに搭載された高性能な**GPU(グラフィックボード)**は完全に無視され、汎用的なCPUが必死に計算していたのです。スーパーカーがあるのに、軽自動車でレースに出ていたようなもの。ここから、本当の最終決戦が始まりました。

第七章:真の黒幕 - ONNXとCUDA Toolkitを巡る最終決戦

GPUを動かすため、GPU版のPyTorchをインストールし直すも、状況は変わらず。ログの奥底に、真の黒幕からのメッセージが記されていました。

FAIL : ... libnvrtc.so.12: cannot open shared object file: No such file or directory

犯人はPyTorchではなく、insightfaceが使う別のライブラリONNX Runtimeでした。彼がGPUを使うには、NVIDIAが提供する**「CUDA Toolkit」という完全な開発キット**が必要だったのです。

これが、この長い戦いを終わらせるための最後の儀式でした。

Bash

=== NVIDIA CUDA Toolkit インストール全手順 ===

1. 必要なパッケージとリポジトリキーを準備

sudo apt-get update
sudo apt-get install -y gpg
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600

2. CUDAリポジトリ本体をダウンロード (2.7GBもある巨大ファイル!)

wget https://developer.download.nvidia.com/compute/cuda/12.5.1/local_installers/cuda-repo-wsl-ubuntu-12-5-local_12.5.1-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-12-5-local_12.5.1-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-12-5-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update

3. CUDA Toolkit 本体をインストール!

sudo apt-get -y install cuda-toolkit-12-5

4. プログラムがToolkitを見つけられるようにパスを設定(超重要)

echo 'export PATH=/usr/local/cuda-12.5/bin${PATH:+:${PATH}}' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.5/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}' >> ~/.bashrc

5. 設定をターミナルに再読み込みさせる

source ~/.bashrc

この長い呪文を唱え終わり、ターミナルを再起動。祈るような気持ちでアプリを起動すると…

Applied providers: ['CUDAExecutionProvider']

ついに、ついにスーパーカーのエンジンがかかったのです!処理速度は爆発的に向上し、数十分かかっていた処理がわずか数分で終わるようになりました。

最終的な起動方法!

cd /mnt/c/Users/あなたのホームディレクトリ/
cd LatentSync
conda activate latentsync
python gradio_app.py

約15秒の動画を生成するのに1:12:43かかりました...

私のスペック

NVIDIA GeForce RTX 3060 VRAM12GB

この記事がいいと思ったら、私に高スペックのPCプレゼントしてください!

教訓:諦めなければ、GPUは動く 今回の冒険で学んだことは、

ローカルPCでのAI環境構築は、エラーの「もぐら叩き」

CPUExecutionProviderの文字を見たら、GPUが動いていない証拠

PyTorchだけでなく、ONNXなど他のライブラリの依存関係も疑うべし

何があっても諦めない心が、GPUを動かす


まとめ

ローカルでのAI環境構築は、エラーとの戦いです。しかし、一つ一つのエラーには必ず原因と解決策があります。この記事が、同じようにダンジョンを彷徨う未来の冒険者のための「攻略本」となれば幸いです。

PR
この記事が役に立ったら: