AI モデルの選択
OpenClaw は複数の LLM プロバイダーをサポートしています。異なるシーンで異なるモデルを使い分けたり、自動切り替えメカニズムを設定したりできます。
モデル比較一覧
| モデル | プロバイダー | コスト | 応答速度 | 品質 | プライバシー | 適用シーン |
|---|---|---|---|---|---|---|
| Claude Opus 4.6 | Anthropic | $$$ | 中等 | ★★★★★ | クラウド | 複雑な推論、長文作成 |
| GPT-5.2 Codex | OpenAI | $$$ | 中等 | ★★★★★ | クラウド | プログラム開発、技術タスク |
| Gemini 3 Pro | $$ | 速い | ★★★★ | クラウド | マルチモーダル、検索統合 | |
| DeepSeek V3 | DeepSeek | $ | 速い | ★★★★ | クラウド* | 中国語タスク、高コスパ |
| Ollama (ローカル) | 自分 | 無料 | HW次第 | ★★~★★★★ | ★★★★★ | 完全オフライン、最大プライバシー |
*DeepSeek は中国企業で、データ処理は中国の法律に準拠します。
費用見積もり
1日100件の対話(平均500トークン入力 + 1000トークン出力)で推算:
| モデル | 1日のコスト (USD) | 1か月のコスト (USD) |
|---|---|---|
| Claude Opus 4.6 | ~$2.25 | ~$67.50 |
| DeepSeek V3 | ~$0.08 | ~$2.40 |
| Ollama(ローカル) | $0 | $0 |
ハイブリッドモード推奨
日常の対話はローカルモデル(ゼロコスト、高プライバシー)を使用し、高品質な推論が必要な場合のみクラウド API に自動切り替えするのがベストプラクティスです。