跳至主要内容

選擇 AI 模型

OpenClaw 支援多家 LLM 提供者,你可以根據需求在不同場景中使用不同模型,甚至設定自動切換機制。本篇將幫助你做出最佳選擇。


模型比較總覽

模型提供者成本回應速度品質隱私適合場景
Claude Opus 4.6Anthropic$$$中等★★★★★雲端複雜推理、長文撰寫
Claude Sonnet 4.5Anthropic$$★★★★雲端日常對話、一般任務
GPT-5.2 CodexOpenAI$$$中等★★★★★雲端程式開發、技術任務
GPT-5.2 MiniOpenAI$很快★★★雲端簡單對話、快速回覆
Gemini 3 ProGoogle$$★★★★雲端多模態、搜尋整合
DeepSeek V3DeepSeek$★★★★雲端*中文任務、高性價比
Ollama (本機)你自己免費視硬體★★~★★★★★★★★★完全離線、最大隱私
GLM-5智譜 AI$★★★★雲端中文任務
KIMI K2.5Moonshot$$中等★★★★雲端長上下文、中文任務

*DeepSeek 為中國公司,資料處理受中國法律管轄。如有隱私顧慮請斟酌使用。


詳細介紹

Claude(Anthropic)

Claude 是目前 OpenClaw 社群中最受歡迎的模型之一,尤其在需要細膩推理與安全性的場景中表現優異。

# ~/.openclaw/providers/anthropic.yaml

provider:
name: anthropic
api_key: "${ANTHROPIC_API_KEY}"

models:
primary:
id: claude-opus-4-6
max_tokens: 8192
temperature: 0.7
fast:
id: claude-sonnet-4-5
max_tokens: 4096
temperature: 0.5

# 智慧路由:簡單問題用 Sonnet,複雜問題用 Opus
routing:
enabled: true
complexity_threshold: 0.6

優勢:推理品質極高、回覆自然、安全護欄完善、超長上下文(1M tokens) 劣勢:Opus 價格較高、部分地區延遲較高

GPT(OpenAI)

GPT-5.2 系列在程式碼生成與技術任務上仍具領先地位。

# ~/.openclaw/providers/openai.yaml

provider:
name: openai
api_key: "${OPENAI_API_KEY}"

models:
primary:
id: gpt-5.2-codex
max_tokens: 8192
temperature: 0.7
fast:
id: gpt-5.2-mini
max_tokens: 2048
temperature: 0.5

優勢:程式碼生成能力強、生態系成熟、工具呼叫穩定 劣勢:成本較高、API 偶有限流

Gemini(Google)

Gemini 3 Pro 的多模態能力(圖片、影片理解)在 OpenClaw 中特別有用。

# ~/.openclaw/providers/google.yaml

provider:
name: google
api_key: "${GOOGLE_AI_API_KEY}"

models:
primary:
id: gemini-3-pro
max_tokens: 8192
temperature: 0.7
fast:
id: gemini-3-flash
max_tokens: 4096
temperature: 0.5

優勢:多模態能力強、與 Google 服務整合良好、Flash 模型極快 劣勢:偶有過度安全過濾的問題

DeepSeek

DeepSeek V3 以極低的成本提供接近頂級模型的品質,特別適合中文場景。

# ~/.openclaw/providers/deepseek.yaml

provider:
name: deepseek
api_key: "${DEEPSEEK_API_KEY}"
endpoint: "https://api.deepseek.com"

models:
primary:
id: deepseek-v3
max_tokens: 8192
temperature: 0.7
reasoning:
id: deepseek-r2
max_tokens: 16384
temperature: 0.3
DeepSeek 隱私注意事項

DeepSeek 是中國公司,其 API 服務的資料處理受中國法規管轄。如果你處理敏感個資或企業機密,請審慎評估是否使用。可改用 Ollama 在本機運行 DeepSeek 開源模型版本。

優勢:性價比極高、中文品質優秀、推理模型 R2 表現亮眼 劣勢:隱私顧慮、部分地區連線不穩

Ollama(本機模型)

Ollama 讓你在自己的電腦上運行開源 LLM 模型。完全離線、零成本、最大隱私

# 安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 下載模型
ollama pull llama3.3:70b
ollama pull deepseek-v3:distill-32b
ollama pull gemma3:27b
# ~/.openclaw/providers/ollama.yaml

provider:
name: ollama
endpoint: "http://127.0.0.1:11434"

models:
primary:
id: llama3.3:70b
max_tokens: 4096
temperature: 0.7
fast:
id: gemma3:27b
max_tokens: 2048
temperature: 0.5
code:
id: deepseek-v3:distill-32b
max_tokens: 4096
temperature: 0.3

適用硬體建議

模型大小最低記憶體建議 GPU
7B 參數8 GB RAM不需要(CPU 可跑)
13B 參數16 GB RAM6 GB VRAM
27-32B 參數32 GB RAM12 GB VRAM
70B 參數64 GB RAM24 GB VRAM
Apple Silicon 使用者

如果你使用 M1 Pro/Max 以上的 Mac,Ollama 能充分利用統一記憶體架構。M4 Max 64GB 可以流暢運行 70B 模型,回應速度接近雲端 API。

GLM-5(智譜 AI)

# ~/.openclaw/providers/zhipu.yaml

provider:
name: zhipu
api_key: "${ZHIPU_API_KEY}"
endpoint: "https://open.bigmodel.cn/api/paas/v4"

models:
primary:
id: glm-5
max_tokens: 8192
temperature: 0.7

優勢:中文理解能力優秀、價格合理 劣勢:英文能力相對較弱、國際可用性有限

KIMI K2.5(Moonshot)

# ~/.openclaw/providers/moonshot.yaml

provider:
name: moonshot
api_key: "${MOONSHOT_API_KEY}"
endpoint: "https://api.moonshot.cn/v1"

models:
primary:
id: kimi-k2.5
max_tokens: 8192
temperature: 0.7

優勢:超長上下文能力突出、中文品質好 劣勢:速度偏慢、海外延遲高


本機 vs 雲端的取捨

考量因素本機(Ollama)雲端 API
隱私資料不離開電腦送至第三方伺服器
成本僅電費按用量計費
速度視硬體而定通常較快
品質開源模型略遜頂級閉源模型
可用性永遠可用依賴網路與 API 狀態
維護需自行更新模型提供者自動更新
混合模式推薦

最佳實踐是設定混合模式:日常對話使用本機模型(零成本、高隱私),需要高品質推理時自動切換到雲端 API。

# ~/.openclaw/providers/default.yaml

routing:
strategy: hybrid

# 預設使用本機模型
default: ollama

# 當任務複雜度超過閾值時切換到雲端
escalation:
provider: anthropic
model: claude-opus-4-6
trigger:
- complexity_score: 0.7
- explicit_request: true # 使用者明確要求時
- skill_requirement: true # 技能要求雲端模型時

設定 API Key

使用環境變數(推薦)

# 在 ~/.zshrc 或 ~/.bashrc 中加入
export ANTHROPIC_API_KEY="sk-ant-xxxxx"
export OPENAI_API_KEY="sk-xxxxx"
export GOOGLE_AI_API_KEY="AIzaSy-xxxxx"
export DEEPSEEK_API_KEY="sk-xxxxx"
export ZHIPU_API_KEY="xxxxx"
export MOONSHOT_API_KEY="sk-xxxxx"

使用 OpenClaw CLI

# 互動式設定 API Key(會安全儲存在 keychain)
openclaw provider add anthropic
openclaw provider add openai

# 測試連線
openclaw provider test anthropic
openclaw provider test openai

驗證所有提供者

openclaw provider list

# 輸出範例:
# PROVIDER MODEL STATUS LATENCY
# anthropic claude-opus-4-6 ✓ ok 342ms
# openai gpt-5.2-codex ✓ ok 289ms
# ollama llama3.3:70b ✓ ok 1.2s
# deepseek deepseek-v3 ✗ error API key invalid

費用估算

以每天 100 則對話(平均每則 500 tokens 輸入 + 1000 tokens 輸出)估算:

模型每日成本(USD)每月成本(USD)
Claude Opus 4.6~$2.25~$67.50
Claude Sonnet 4.5~$0.45~$13.50
GPT-5.2 Codex~$2.10~$63.00
GPT-5.2 Mini~$0.15~$4.50
Gemini 3 Pro~$0.53~$15.75
DeepSeek V3~$0.08~$2.40
Ollama(本機)$0$0

以上為粗略估算,實際費用依各提供者的最新定價為準。


下一步

選好了你的 AI 模型之後,是時候賦予它獨特的人格了: