LTX-2.3が出たのでIntel Arcで動かしてみる(Ubuntu編)

Ubuntu
スポンサーリンク

LTX-2の記事はこちらで書いています。
今回はLTX-2.3になります。
自分はクリエイターには程遠い人なので、この2つの違いがよくわかりません。
「とりあえず、Intel Arcでも動いたよ」
「メインメモリとVRAMはこれくらい使うよ」
「時間はこれくらいかかったよ」
といった動作報告です。
自分の環境は「Arc Pro B60」なので「Arc B580」とかでも動いたよって方がおられたら教えてくださいね。

それでは、やっていきましょう。

とりあえずComfyUIのインストール

これらをインストールしておいてください。
特に「ComfyUI-managerのインストール」をやっておくと、モデルファイルのダウンロードが楽になります。

ワークフローはどこに?

LTX-2.3のワークフローは以下のリンク先にありました。

GitHub - Lightricks/ComfyUI-LTXVideo: LTX-Video Support for ComfyUI
LTX-Video Support for ComfyUI. Contribute to Lightricks/ComfyUI-LTXVideo development by creating an account on GitHub.

足りないモデルを追加でダウンロード

上のワークフローとComfyUI-managerでもダウンロードできないモデルファイルがありました。

split_files/text_encoders/gemma_3_12B_it.safetensors · Comfy-Org/ltx-2 at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

このテキストエンコーダですね。
LTX-2と共用のようです。
もし、まだダウンロードしていない方はこちらからどうぞ。

T2I(text-to-image)で生成

どうもこのワークフローで「T2I(text-to-image)」と「I2I(image-to-image)」両方をまかなえるようです。
あとは「通常版のモデル」と「蒸留版(distilled)のモデル」も使い分けられるみたいですね。
今回は「T2I」+「蒸留版」なので、使わないノードグループをバイパスに設定します。

今回のComfyUIの起動オプションは「python main.py –auto-launch」です。

ワークフローのデフォルトプロンプトで生成された動画です。正直微妙。

「–novram」を付けるとどうなるか

ComfyUIの起動オプションを「python ./main.py –auto-launch –novram」に変更してみます。

最後に

自分もいろいろワークフローをいじって自分の動画を作ってみよう!なんて思っていたんですが、やっぱり自分はクリエイターには向きませんね・・・。
酷い動画ばかり量産されてしまって、断念しています。

今回は、とりあえず動作確認だけしてみました。
Arc持っていて、LTX-2.3に興味がある方は試してみてはどうでしょう?

以上です。

コメント

タイトルとURLをコピーしました