z-image-turboをAPIベースで大量生成・自動化したい上級者向けに、RunPod Serverlessでの環境構築方法を解説します。
初心者の方は、まずConoHa AI Canvasから始めることをおすすめします。
RunPod Serverlessとは
RunPodはクラウドGPUプラットフォームで、Serverless機能を使えばAPIエンドポイントとしてAI推論を実行できます。
メリット:
- 使った分だけの従量課金(アイドル時はコストゼロ)
- オートスケーリング対応
- APIで呼び出せるため自動化・バッチ処理が可能
- 複数のワーカーで並列実行可能
デメリット:
- 技術的な知識が必要(Docker、API)
- コールドスタート時に数秒〜数十秒のレイテンシ
他サービスとのコスト比較はクラウドGPU比較記事をご覧ください。
構築手順
Step 1: RunPodアカウント作成
- RunPodにアクセスしてアカウントを作成
- クレジットカード情報を登録(従量課金のため)
- 初期クレジットをチャージ($10〜推奨)
Step 2: Serverless Endpointを作成
- RunPodダッシュボードで Serverless セクションに移動
- New Endpoint をクリック
- 以下の設定を入力:
| 設定項目 | 推奨値 | 説明 |
|---|---|---|
| Endpoint Name | z-image-turbo | 任意の名前 |
| Docker Image | z-image-turbo対応イメージ | モデルを含むDockerイメージ |
| GPU Type | RTX A4000 / RTX 3090 | コスパ重視ならA4000 |
| Min Workers | 0 | アイドル時のコストをゼロに |
| Max Workers | 3 | 同時リクエスト数の上限 |
| Idle Timeout | 5秒 | ワーカーのアイドルタイムアウト |
Step 3: APIキーを取得
- RunPodダッシュボードの Settings → API Keys に移動
- 新しいAPIキーを生成
- Endpoint IDも控えておく
Step 4: 環境変数を設定
# ~/.config/z-image/.env に保存
RUNPOD_API_KEY=your_api_key_here
RUNPOD_ENDPOINT_ID=your_endpoint_id_here
Step 5: テストリクエスト
curlでAPIを叩いて動作確認します。
curl -X POST "https://api.runpod.ai/v2/${RUNPOD_ENDPOINT_ID}/runsync" \
-H "Authorization: Bearer ${RUNPOD_API_KEY}" \
-H "Content-Type: application/json" \
-d '{
"input": {
"prompt": "a beautiful Japanese woman, portrait, natural lighting, 85mm lens",
"width": 1024,
"height": 1024,
"steps": 8,
"sampler": "euler",
"scheduler": "ddim_uniform"
}
}'
コスト最適化
GPU選択
| GPU | 料金(/秒) | 速度 | コスパ |
|---|---|---|---|
| RTX A4000 | $0.00016 | 良い | ◎ |
| RTX 3090 | $0.00022 | 非常に良い | ○ |
| RTX A5000 | $0.00028 | 非常に良い | ○ |
| A100 | $0.00076 | 最速 | △(過剰) |
z-image-turboは8ステップで生成できるため、高価なGPUは不要です。RTX A4000がコスパ最良。
ワーカー設定のコツ
- Min Workers = 0: アイドル時のコストをゼロに。ただしコールドスタートが発生
- Min Workers = 1: 常に1台起動。レイテンシを許容できない場合
- Max Workers: 同時リクエスト数の上限。バッチ処理の並列度に合わせて設定
バッチ処理
RunPod APIの非同期エンドポイント(/run)を使えば、複数リクエストを並列に投げてバッチ処理が可能です。
プロンプトの設定
プロンプトの書き方については以下の記事を参照してください:
- プロンプトの基本法則 — 語順・強調構文の基礎
- プロンプトのベストプラクティス — 検証済みのプロンプト知見
- プロンプト作例集 — 実際の作例とプロンプト
ComfyUIワークフローで使っているのと同じパラメータ設定がAPIでも使えます。
トラブルシューティング
コールドスタートが遅い
- Min Workersを1に設定してワーカーを常時起動する(コスト増)
- FlashBootオプション(対応GPUの場合)を有効にする
画像が生成されない
- APIキーが正しいか確認
- Endpoint IDが正しいか確認
- RunPodダッシュボードでエンドポイントのステータスを確認
コストが予想より高い
- Idle Timeoutを短くする(5秒推奨)
- Min Workersが0になっているか確認
- 不要なエンドポイントを削除
まとめ
RunPod ServerlessでのZ-Image-Turbo環境構築:
- アカウント作成 → Endpointの設定 → APIキー取得
- RTX A4000がコスパ最良
- Min Workers = 0 でアイドルコストゼロ
- curlまたはスクリプトでAPIリクエスト
関連記事
- z-image-turboとは — モデルの特徴と選び方
- ConoHa AI Canvas始め方 — 初心者はこちらから
- ComfyUIワークフロー — ネガプロ設定済みワークフロー
- クラウドGPU比較 — サービス間のコスト比較






