Loading...
WindowsにLatentSyncで大苦戦!AIリップシンクをローカルPCで動かそうとしてエラーの地獄を見た全記録
AILatentSyncwsl

WindowsにLatentSyncで大苦戦!AIリップシンクをローカルPCで動かそうとしてエラーの地獄を見た全記録

「ローカルPCで手軽にAIリップシンクを楽しみたい!」そんな甘い夢を見て、巷で話題の「LatentSync」をインストールしようとしたのが全ての始まりでした。まさか、これが数々のエラーという名の強敵と戦い、黒い画面(ターミナル)という名のダンジョンを彷徨う、壮大な冒険になるとは…この記事は、その血と汗と涙の全記録です。

2025-08-1511分で読める

第一章:冒険の始まり - Git Cloneと最初の洗礼

まずは基本から。GitHubからプロジェクトをダウンロード(クローン)します。ここまでは順調でした。

git clone https://github.com/bytedance/LatentSync.git
cd LatentSync

そして、説明書(README)通りにセットアップスクリプトを実行!…しようとしたら、Windowsは冷たく言い放ちます。

source setup_env.sh

実行結果source: command not found

そう、これはLinux用のコマンド。Windowsでは動かない。ここから、私の長い戦いが始まったのです。


第二章:救世主WSL2 - 新たな大地と「何も無い」現実

賢者(ネットの有識者)は言いました。「WSL2を使いなさい」と。Windows上でLinuxを動かす魔法の言葉です。

# PowerShellを管理者で開き、WSLをインストール
wsl --install

Ubuntuが起動した時は感動しました。しかし、そこはまっさらな大地。当然、Python環境を管理するCondaなど入っていません。

実行結果conda: command not found

解決策は、この新しい大地にCondaの種を蒔くことでした。

# Minicondaのインストーラーをダウンロード
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

# インストールを実行(対話形式で yes を押していく)
bash Miniconda3-latest-Linux-x86_64.sh

# ターミナルを再起動! これが超重要!

第三章:無限コンパイルエラー - g++よ、お前はどこにいる

Condaの準備も整い、今度こそライブラリをインストール!

# LatentSync用の環境を作り、有効化
conda create -n latentsync python=3.10 -y
conda activate latentsync

# いざ、インストール!
pip install -r requirements.txt

しかし、新たな壁が立ちはだかります。

実行結果error: command 'g++' failed: No such file or directory

insightfaceというライブラリのビルドに必要なC++コンパイラ(プログラムの翻訳機)が入っていなかったのです。これもLinuxの初期設定あるある。大工道具一式をインストールします。

# 必要なビルドツール一式をインストール
sudo apt update
sudo apt install build-essential

これを実行後、再度pip installを試み、ついにライブラリのインストールが完了しました。


第四章:改行コードの罠 - WindowsとLinux、見えざる壁

ライブラリも入り、満を持してセットアップスクリプトを再実行!しかし、無情にもエラーが。

実行結果No such file or directory: 'requirements.txt\r'

犯人は、WindowsとLinuxの改行コードの違い。\rという見えない文字が悪さをしていました。これをLinux形式に変換する魔法のコマンドがdos2unixです。

# 変換ツールをインストール
sudo apt install dos2unix

# スクリプトファイルをLinux形式に変換
dos2unix setup_env.sh

第五章:モデルファイルとの死闘 - 破損したデータEOFError

数々の死闘を乗り越え、ついにアプリが起動! Running on local URL... の文字に涙が出ました。

しかし、動画を生成しようとすると、またエラー。

実行結果Model checkpoints/whisper/tiny.pt not found

音声認識モデルが無い。これもスクリプトがやってくれるはずだった作業。手動でダウンロードします。

# フォルダを作り、モデルをダウンロード
mkdir -p checkpoints/whisper
wget -O checkpoints/whisper/tiny.pt https://openaipublic.azureedge.net/main/whisper/models/65147644a518d12f04e32d6f3b26facc3f8dd49e5d9baa7c52343d9b24ba2902/tiny.pt

しかし、次に待っていたのはダウンロードファイルの破損。

実行結果EOFError

ダウンロードが不完全だったようです。壊れたファイルを削除し、再ダウンロード&サイズ確認で乗り越えました。

# 壊れたファイルを削除
rm checkpoints/whisper/tiny.pt

# 再ダウンロード
wget -O checkpoints/whisper/tiny.pt https://...(上記URL).../tiny.pt

# ファイルサイズを確認!「74M」くらいあればOK!
ls -lh checkpoints/whisper/

最六章:灯台下暗し - Hugging Faceに全てがあった

心が折れかけたその時、天啓が。なんと、Hugging Faceに最新版のLatentSyncが全モデルファイル付きで公開されていたのです。

結論:最初からこれをやれば良かった。

これが、エラーの地獄から生還するための、最も確実で、最も簡単な手順です。

Hugging Faceからlatentsync_unet.ptをダウンロードしてcheckpointsフォルダに配置します。

そして/whisper/tiny.ptをダウンロードしてcheckpoints/whisperフォルダに配置します。

checkpoints/
├── latentsync_unet.pt
└── whisper/
    └── tiny.pt

そしてついに、私のローカルPCでAIが喋り出したのです。長かった…本当に長かった! しかし非力な私のPCではなかなか動画が生成できない

!しかし非力な私のPCではなかなか動画が生成できないません...

このようなエラーがでてたのに動いてるので、まあいいかと思い、そのまま動かしていましたらなんと!CPUで動いていたのです。😢

Applied providers: ['CPUExecutionProvider'], with options: {'CPUExecutionProvider': {}}
model ignore: checkpoints/auxiliary/models/buffalo_l/genderage.onnx genderage
2025-08-23 20:41:21.039152396 [E:onnxruntime:Default, provider_bridge_ort.cc:2036 TryGetProviderInfo_CUDA] /onnxruntime_src/onnxruntime/core/session/provider_bridge_ort.cc:1695 onnxruntime::Provider& onnxruntime::ProviderLibrary::Get() [ONNXRuntimeError] : 1 : FAIL : Failed to load library libonnxruntime_providers_cuda.so with error: libnvrtc.so.12: cannot open shared object file: No such file or directory

私のPCに搭載された高性能な**GPU(グラフィックボード)**は完全に無視され、汎用的なCPUが必死に計算していたのです。スーパーカーがあるのに、軽自動車でレースに出ていたようなもの。ここから、本当の最終決戦が始まりました。

第七章:真の黒幕 - ONNXとCUDA Toolkitを巡る最終決戦

GPUを動かすため、GPU版のPyTorchをインストールし直すも、状況は変わらず。ログの奥底に、真の黒幕からのメッセージが記されていました。

FAIL : ... libnvrtc.so.12: cannot open shared object file: No such file or directory

犯人はPyTorchではなく、insightfaceが使う別のライブラリONNX Runtimeでした。彼がGPUを使うには、NVIDIAが提供する**「CUDA Toolkit」という完全な開発キット**が必要だったのです。

これが、この長い戦いを終わらせるための最後の儀式でした。

Bash

=== NVIDIA CUDA Toolkit インストール全手順 ===

1. 必要なパッケージとリポジトリキーを準備

sudo apt-get update
sudo apt-get install -y gpg
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600

2. CUDAリポジトリ本体をダウンロード (2.7GBもある巨大ファイル!)

wget https://developer.download.nvidia.com/compute/cuda/12.5.1/local_installers/cuda-repo-wsl-ubuntu-12-5-local_12.5.1-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-12-5-local_12.5.1-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-12-5-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update

3. CUDA Toolkit 本体をインストール!

sudo apt-get -y install cuda-toolkit-12-5

4. プログラムがToolkitを見つけられるようにパスを設定(超重要)

echo 'export PATH=/usr/local/cuda-12.5/bin${PATH:+:${PATH}}' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.5/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}' >> ~/.bashrc

5. 設定をターミナルに再読み込みさせる

source ~/.bashrc

この長い呪文を唱え終わり、ターミナルを再起動。祈るような気持ちでアプリを起動すると…

Applied providers: ['CUDAExecutionProvider']

ついに、ついにスーパーカーのエンジンがかかったのです!処理速度は爆発的に向上し、数十分かかっていた処理がわずか数分で終わるようになりました。

最終的な起動方法!

cd /mnt/c/Users/あなたのホームディレクトリ/
cd LatentSync
conda activate latentsync
python gradio_app.py

約15秒の動画を生成するのに1:12:43かかりました...

私のスペック

NVIDIA GeForce RTX 3060 VRAM12GB

この記事がいいと思ったら、私に高スペックのPCプレゼントしてください!

教訓:諦めなければ、GPUは動く 今回の冒険で学んだことは、

ローカルPCでのAI環境構築は、エラーの「もぐら叩き」

CPUExecutionProviderの文字を見たら、GPUが動いていない証拠

PyTorchだけでなく、ONNXなど他のライブラリの依存関係も疑うべし

何があっても諦めない心が、GPUを動かす


まとめ

ローカルでのAI環境構築は、エラーとの戦いです。しかし、一つ一つのエラーには必ず原因と解決策があります。この記事が、同じようにダンジョンを彷徨う未来の冒険者のための「攻略本」となれば幸いです。

PR
この記事が役に立ったら:

developer note 記事

Sunoで演歌を作ってみた話 〜AIが奏でる昭和の哀愁〜
Suno / music / 生成AI

最近AI音楽生成サービス「Suno」を使って遊んでいるのですが、思い付きで演歌を作れるか実験しました。

2025-09-21

Sunoで演歌を作ってみた話 〜AIが奏でる昭和の哀愁〜

写真を90年代風に加工できるツールが登場!
写真加工 / JavaScript / 生成AI

AIで生成した画像を90年代風にしてみた

2025-08-15

写真を90年代風に加工できるツールが登場!

WindowsにLatentSyncで大苦戦!AIリップシンクをローカルPCで動かそうとしてエラーの地獄を見た全記録
AI / LatentSync / wsl

「ローカルPCで手軽にAIリップシンクを楽しみたい!」そんな甘い夢を見て、巷で話題の「LatentSync」をインストールしようとしたのが全ての始まりでした。まさか、これが数々のエラーという名の強敵と戦い、黒い画面(ターミナル)という名のダンジョンを彷徨う、壮大な冒険になるとは…この記事は、その血と汗と涙の全記録です。

2025-08-15

WindowsにLatentSyncで大苦戦!AIリップシンクをローカルPCで動かそうとしてエラーの地獄を見た全記録

2025年、AIが「ヤバい」ことになっている件について
AI / 最新技術 / トレンド

もはやSFではない。音楽作成、新薬開発、未知の物理法則の発見まで、最新AIの驚くべき成果を完全解説。

2025-08-15

2025年、AIが「ヤバい」ことになっている件について

構造化XMLタグ完全ガイド - AIプロンプトを劇的に改善する技術
プロンプト / XML

AI時代の新常識「何を言うか」より「どう伝えるか」が決定的な差を生む。構造化XMLタグは、あなたのプロンプトを次のレベルに押し上げる強力な武器です。

2025-08-13

構造化XMLタグ完全ガイド - AIプロンプトを劇的に改善する技術

GPT-5プロンプトガイド: 次世代AIモデルを最大限活用する方法
OpenAI / GPT-5

OpenAIが発表したGPT-5は、エージェント的タスク実行、コーディング、推論能力、そして操作性において大幅な向上を実現したフラグシップモデルです。本記事では、GPT-5の潜在能力を最大限引き出すためのプロンプト技術について、実用的な観点から解説します。

2025-08-13

GPT-5プロンプトガイド: 次世代AIモデルを最大限活用する方法

SunoでフューチャーファンクをDIY!完全解説ガイド
生成AI / Suno / 楽曲

こんにちは!今回は、AI音楽生成ツール「Suno」を使って、ノスタルジックな80年代風フューチャーファンクトラックを作成した体験記をお届けします。プロンプトエンジニアリングのコツから、フューチャーファンクの魅力まで、詳しく解説していきます。

2025-08-12

SunoでフューチャーファンクをDIY!完全解説ガイド

【やってみた】Claude Desktop × Browser MCPでXポスト自動化!AI操作の可能性に驚きと感動!
AI / 自動化 / Claude / mcp

こんにちは!今回は、ずっと気になっていた「AIにX(旧Twitter)への投稿を自動化させる」というチャレンジをしてみました。

2025-08-12

【やってみた】Claude Desktop × Browser MCPでXポスト自動化!AI操作の可能性に驚きと感動!

OpenAI GPT OSS:新しいオープンソースモデルファミリー - 詳細要約
GPT-5 / AI / 創造 / 生産性 / 未来

OpenAIが初のオープンソースモデルファミリー「GPT OSS」をリリースしました。これは推論、エージェント型タスク、多様な開発用途に設計された待望のオープンウェイトモデルです。

2025-08-10

OpenAI GPT OSS:新しいオープンソースモデルファミリー - 詳細要約

GPT-5超速報:爆速創造時代の始まり
GPT-5 / AI / 創造 / 生産性 / 未来

ヤバいAI、GPT-5がキタ!あなたの「ひらめき💡」を「カタチ✨」にする最強の相棒が爆誕。仕事も遊びも爆速になる未来は、もうここにある。速さはAIがくれる。その先にある「信頼」と「物語」を創るのは、いつだって人間だ。

2025-08-09

GPT-5超速報:爆速創造時代の始まり

Gemini Code Assist、2025年夏アップデートで「エージェントモード」とIDE機能強化を発表!開発がさらに加速
Google / Gemini / Code Assist / エージェントモード / IDE

GoogleのAIコーディングアシスタントであるGemini Code Assistは、個人の開発者から企業まで、すべての方のコーディングをさらに高速化する画期的なアップデートを2025年7月に発表しました。今回の目玉は、AIがコードベース全体を理解し、複雑なタスクを実行する「エージェントモード」の登場、そして開発環境(IDE)の使いやすさを向上させる様々な機能強化です。

2025-08-08

Gemini Code Assist、2025年夏アップデートで「エージェントモード」とIDE機能強化を発表!開発がさらに加速

Browser MCP徹底解説:AI(Claude)がX(旧Twitter)に自動投稿する仕組みと手順
Claude / Browser MCP / X

Browser MCPを活用してAIがWebブラウザを操作し、X(旧Twitter)へ自動的に投稿を行うための詳細な設定方法と具体的な利用例を徹底的に解説します。

2025-08-01

Browser MCP徹底解説:AI(Claude)がX(旧Twitter)に自動投稿する仕組みと手順

Gemini APIで画像を解析し、Next.jsアプリに組み込む方法【2024年版】
Next.js / Gemini API / Vercel AI SDK

Google Gemini APIとVercel AI SDKを使って、画像から情報を抽出するアプリを構築しよう。

2025-07-27

Gemini APIで画像を解析し、Next.jsアプリに組み込む方法【2024年版】

機械学習を用いてドラゴンクエスト12の発売日を予測
Python

ちょっとしたプログラミングの遊びをしてみたくて、機械学習を使ってドラゴンクエスト12の発売日を予測してみることにしました。

2024-05-14

機械学習を用いてドラゴンクエスト12の発売日を予測

ESP32とDHT11を使って温度と湿度を測定し、AWS Lambda経由でX(Twitter)に投稿する
Electronics

Freenove ESP32-WROOMボードとDHT11温湿度センサーを使用して、環境の温度と湿度を測定し、そのデータをAWS Lambdaを介してX(Twitter)に自動投稿してみました。

2024-04-05

ESP32とDHT11を使って温度と湿度を測定し、AWS Lambda経由でX(Twitter)に投稿する

年に一度で忘れがちのiOS Distribution Certificate証明書の更新メモ
iOS

毎年、現在ご利用のiOS Distribution証明書の有効期限まであと30日になりました。以降、この証明書は無効となります。新しい証明書を生成するには、サインインして「Certificates, Identifiers & Profiles」(証明書、ID、プロファイル)にアクセスしてください。とAppleからご案内が来るのですが、年に1度しか対応しないのですぐ忘れてしまうためメモいたしました

2024-01-05

年に一度で忘れがちのiOS Distribution Certificate証明書の更新メモ

Xcode15で作成したアプリにAdMobを設定したい時のメモ
iOS

Xcode15でAdMobを導入した時のことを備忘録としてメモいたしました。

2023-10-04

Xcode15で作成したアプリにAdMobを設定したい時のメモ

機械学習を用いて衆議院の解散日を予測
Python

ニュースで衆議院の解散はいつ?みたいなことを取り上げていたので、機械学習を使って衆議院の解散の日を予測してみることにしました。

2023-09-18

機械学習を用いて衆議院の解散日を予測