尚未安裝 OpenClaw?點此查看一鍵安裝指令
curl -fsSL https://openclaw.ai/install.sh | bash
iwr -useb https://openclaw.ai/install.ps1 | iex
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
擔心影響電腦?ClawTank 免安裝雲端運行,免除誤刪風險
Key Findings
  • OpenClaw 原生支援六大 API Provider(Anthropic、OpenAI、Google、DeepSeek、Ollama、OpenRouter),每個 Provider 可透過 OAuth 或 API Key 兩種方式認證,且支援 Primary + Fallback 雙層模型切換機制[1]
  • 實測比較中,Anthropic Claude 3.5 Sonnet 在程式碼生成與推理任務上表現最優;Google Gemini 2.5 Flash 以極低成本在日常對話與摘要任務上提供最佳性價比[11]
  • DeepSeek V4 是目前 OpenClaw 生態中成本最低的雲端模型選項——輸入 Token 僅 $0.27/1M,適合大量文件處理與預算敏感的使用場景[6]
  • 本地部署方面,Ollama 整合讓使用者可在完全離線環境中運行 OpenClaw,搭配 Qwen 2.5 32B 或 Llama 3.3 70B 等開源模型即可獲得接近雲端模型的效果[7]
  • 企業級部署建議採用「Claude Sonnet 主力 + GPT-4o 備援 + 本地模型兜底」的三層 Fallback 策略,確保 99.9% 以上的服務可用性[8]
  • OAuth 認證相較 API Key 可省去金鑰管理的複雜度,但受限於個別 Provider 的速率配額;API Key 則提供更彈性的用量控制與計費分離[2]

一、為什麼模型選擇是 OpenClaw 最重要的決策

OpenClaw 作為 2026 年最受矚目的開源 AI 代理框架,其核心能力來自它背後連接的大型語言模型(LLM)。[10] 然而,不同模型在推理能力、程式碼生成品質、回應速度與成本結構上差異巨大。選對模型,你的 AI 代理可以精準執行複雜的瀏覽器自動化與多步驟工作流程;選錯模型,則可能面臨回應遲緩、指令理解錯誤、甚至成本失控的困境。

本文將從架構原理出發,系統性地拆解 OpenClaw 的模型管理機制,逐一評測六大 API Provider 的模型表現,並提供完整的設定教學、成本分析與企業最佳實踐。無論你是剛安裝 OpenClaw 的新手、希望降低 API 成本的個人開發者,還是正在評估企業部署方案的技術主管,這篇指南都將為你提供最全面的決策依據。

二、OpenClaw 模型架構概覽

在深入比較各家模型之前,先理解 OpenClaw 是如何管理模型的。這個架構設計決定了你後續所有設定的邏輯。[1]

2.1 Provider-Model 分層架構

OpenClaw 將模型管理分為兩個層次:

  • Provider(供應商):指提供 AI 模型 API 的服務商——Anthropic、OpenAI、Google、DeepSeek、Ollama(本地)、OpenRouter(聚合)。每個 Provider 有自己的認證方式與計費模式
  • Model(模型):指 Provider 底下的具體模型版本——例如 Anthropic 下的 claude-opus-4-6claude-sonnet-4-6;OpenAI 下的 gpt-4ogpt-4.5-preview

這種分層設計的好處是:你可以同時配置多個 Provider 的認證,然後在模型層級自由切換,而不需要每次都重新設定認證。

2.2 Primary + Fallback 雙層機制

OpenClaw 的模型設定採用 Primary(主要)+ Fallback(備援)的雙層架構,這是其可靠性設計的核心:[8]

// openclaw.json — 模型設定結構
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o", "gemini-2.5-flash"]
      }
    }
  }
}

運作邏輯如下:

  • 每次代理執行任務時,首先嘗試使用 Primary 模型
  • 若 Primary 模型不可用(API 限流、服務中斷、認證過期),系統依序嘗試 Fallback 清單中的模型
  • 第一個成功回應的模型會被用於該次任務
  • 每次新任務仍會優先嘗試 Primary 模型(不會「黏著」在 Fallback 上)

這意味著即使 Anthropic 的 API 暫時出現問題,你的 OpenClaw 代理仍能透過 OpenAI 或 Google 的模型繼續運作——對於生產環境而言,這是不可或缺的可靠性保障。

2.3 認證管理:OAuth vs API Key

OpenClaw 支援兩種認證方式,每個 Provider 至少支援其中一種:[2]

  • OAuth(互動式授權):透過瀏覽器完成授權流程,Token 自動管理與更新。適合個人用戶,設定最簡單
  • API Key(金鑰認證):手動輸入從 Provider 網站取得的 API 金鑰。適合企業用戶,可精細控管用量與計費

認證資訊統一儲存在 ~/.openclaw/auth-profiles.json,與主設定檔 openclaw.json 分離,降低意外洩漏的風險。

三、支援的 API Provider 總覽

以下是 OpenClaw 目前支援的所有 API Provider 的完整比較。這張表格將幫助你快速掌握各家的核心差異:[1]

Provider推薦模型認證方式輸入 / 輸出 (1M Token)速率限制最佳場景
AnthropicClaude 3.5 SonnetOAuth / API Key$3 / $154,000 RPM(付費)程式碼生成、邏輯推理
OpenAIGPT-4oOAuth / API Key$2.5 / $1010,000 RPM(Tier 5)通用任務、多模態
GoogleGemini 2.5 FlashOAuth / API Key$0.15 / $0.602,000 RPM(免費)日常對話、摘要
DeepSeekDeepSeek V4API Key$0.27 / $1.10500 RPM批量處理、成本導向
Ollama(本地)Qwen 2.5 32B免認證免費(硬體成本)硬體限制離線、隱私、實驗
OpenRouter依模型而異API Key依模型而異依方案而異聚合多家、統一計費

接下來,我們逐一深入分析每個 Provider 的模型特性、設定方法與適用場景。

四、Anthropic Claude 系列——程式碼與推理的首選

Anthropic 的 Claude 系列是 OpenClaw 的預設推薦模型,也是整個 OpenClaw 生態系統中測試最為充分的模型族群。[3] 這不是巧合——OpenClaw 的核心開發者群體大量使用 Claude 進行日常開發,因此框架與 Claude 的相容性最佳。

4.1 可用模型

模型名稱模型 ID上下文窗口輸入 / 輸出 (1M Token)特色
Claude Opus 4.6claude-opus-4-6200K$15 / $75最強推理能力,適合複雜多步驟任務
Claude Sonnet 4.6claude-sonnet-4-6200K$3 / $15最佳性價比,程式碼生成品質極高
Claude 3.5 Sonnetclaude-3-5-sonnet-20241022200K$3 / $15穩定可靠的上一代旗艦
Claude 3.5 Haikuclaude-3-5-haiku-20241022200K$0.80 / $4輕量快速,適合簡單任務

4.2 認證設定

方法一:OAuth 授權(推薦新手使用)

openclaw models auth login --provider anthropic

執行後會開啟瀏覽器,引導你登入 Anthropic 帳號並完成授權。Token 會自動儲存,到期後系統會自動提醒你重新授權。[9]

方法二:API Key(推薦企業用戶)

openclaw models auth setup-token --provider anthropic

系統會提示你輸入 API Key。你可以從 Anthropic Console 的 API Keys 頁面取得。建議為 OpenClaw 建立專用的 API Key,方便追蹤用量與設定預算警報。

4.3 為什麼 Claude 適合 OpenClaw

Claude 系列在 OpenClaw 代理場景中表現出色的原因有三:

  • 指令遵循能力強:Claude 對複雜的多步驟指令有極好的理解與執行能力,這在代理需要自主拆解任務時至關重要
  • 程式碼生成品質高:在 SWE-bench、HumanEval 等基準測試中,Claude Sonnet 的程式碼生成正確率長期位居前列[11]
  • 安全設計:Claude 的 Constitutional AI 訓練方法使其在面對潛在危險操作時更傾向於「先確認再執行」,這對擁有電腦控制權的 AI 代理而言是重要的安全特性[3]

推薦配置:claude-sonnet-4-6 設為 Primary,claude-3-5-haiku-20241022 設為 Fallback 中的第一順位(用於 API 限流時降級)。

五、OpenAI GPT 系列——通用性與多模態的全能選手

OpenAI 的 GPT 系列是全球使用量最大的 LLM API,擁有最完善的生態系統與最高的速率限制配額。[4]

5.1 可用模型

模型名稱模型 ID上下文窗口輸入 / 輸出 (1M Token)特色
GPT-4.5 Previewgpt-4.5-preview128K$75 / $150最強通用能力,成本極高
GPT-4ogpt-4o128K$2.50 / $10最佳通用性價比,多模態
GPT-4o minigpt-4o-mini128K$0.15 / $0.60輕量快速,成本極低
o3-minio3-mini200K$1.10 / $4.40推理強化模型,數學與科學

5.2 認證設定

方法一:OAuth 授權

openclaw models auth login --provider openai

OpenAI 的 OAuth 流程與 Anthropic 類似,開啟瀏覽器完成登入後自動儲存 Token。

方法二:API Key

openclaw models auth setup-token --provider openai

前往 OpenAI Platform 建立 API Key。OpenAI 支援為每個 Key 設定專案(Project)與預算上限,對企業成本控管極為有利。

5.3 GPT 系列的優勢場景

  • 多模態任務:GPT-4o 在圖像理解方面表現優異,當你的 OpenClaw 代理需要分析螢幕截圖、解讀圖表時,GPT-4o 是極佳選擇
  • 高併發場景:OpenAI 的速率限制配額是所有 Provider 中最高的,Tier 5 用戶可達到 10,000 RPM,適合企業級高頻呼叫[4]
  • Function Calling:GPT 系列對結構化工具呼叫的支援最為成熟,在需要精確格式輸出的場景中穩定性高

推薦配置:gpt-4o 作為 Claude 的 Fallback 首選——兩家 Provider 同時出問題的機率極低,可確保服務不中斷。

六、Google Gemini 系列——性價比與長上下文的黑馬

Google 的 Gemini 系列近期在 OpenClaw 社群中獲得越來越多關注,主要原因是其極具競爭力的定價與超大的上下文窗口。[5]

6.1 可用模型

模型名稱模型 ID上下文窗口輸入 / 輸出 (1M Token)特色
Gemini 2.5 Progemini-2.5-pro1M$1.25 / $10長上下文之王,深度推理
Gemini 2.5 Flashgemini-2.5-flash1M$0.15 / $0.60極致性價比,速度快
Gemini 2.0 Flashgemini-2.0-flash1M$0.10 / $0.40最低成本,支援免費層

6.2 認證設定

方法一:OAuth 授權(最簡設定)

openclaw models auth login --provider google

使用 Google 帳號登入即可。如果你已有 Google Cloud 帳號,整個流程不到 30 秒。

方法二:API Key

openclaw models auth setup-token --provider google

前往 Google AI Studio 建立 API Key。Google 為 Gemini API 提供慷慨的免費層——每日最多 1,500 次免費 API 呼叫,對個人用戶而言這可能就足夠了。[5]

6.3 Gemini 的獨特優勢

  • 1M Token 上下文窗口:Gemini 系列的 1,000,000 Token 上下文窗口是所有主流模型中最大的。當你的 OpenClaw 代理需要處理超長文檔(例如整份程式碼庫、法律合約、技術手冊)時,Gemini 可以一次讀入而不需要分段處理
  • 免費層配額:Gemini 2.0 Flash 的免費層對於初學者和輕量使用場景非常有吸引力,搭配 OpenClaw 可實現「零成本」的 AI 代理體驗
  • 原生多模態:Gemini 從設計之初即為原生多模態模型,在圖像、音訊、影片理解方面有深厚積累

推薦配置:gemini-2.5-flash 設為 Fallback 清單的最後一位——當主力模型和次要備援都不可用時,Gemini Flash 以極低成本提供基本功能保障。

七、DeepSeek 系列——成本破壞者的開源之力

DeepSeek 是來自中國的 AI 實驗室,其模型以驚人的低成本和優秀的開源生態而聞名。[6] 在 OpenClaw 社群中,DeepSeek 被廣泛用於成本敏感的批量處理任務。

7.1 可用模型

模型名稱模型 ID上下文窗口輸入 / 輸出 (1M Token)特色
DeepSeek V4deepseek-chat128K$0.27 / $1.10通用對話,成本極低
DeepSeek R2deepseek-reasoner128K$0.55 / $2.19推理強化,可查看思考鏈

7.2 認證設定

DeepSeek 目前僅支援 API Key 認證:

openclaw models auth setup-token --provider deepseek

前往 DeepSeek Platform 註冊帳號並建立 API Key。新帳號通常會附贈免費額度,足夠進行初步測試。

7.3 DeepSeek 的適用場景

  • 大量文件處理:當你需要用 OpenClaw 代理批量整理、分類、摘要數百份文件時,DeepSeek 的低成本優勢非常顯著——相同任務使用 Claude Sonnet 的成本可能是 DeepSeek 的 10 倍以上
  • 推理任務:DeepSeek R2 的推理能力在開源模型中名列前茅,特別適合數學計算、邏輯分析等任務[6]
  • 預算有限的團隊:新創公司或個人開發者在探索 AI 代理的可能性時,DeepSeek 是最低門檻的入手點

注意事項:DeepSeek 的 API 服務偶爾會因流量高峰出現延遲,建議在 Fallback 清單中搭配其他 Provider 使用,不建議作為唯一 Provider。

八、本地模型:Ollama 整合——完全離線的 AI 代理

對於重視資料隱私、需要離線運作,或純粹想節省 API 費用的使用者,OpenClaw 提供了與 Ollama 的深度整合。[7]

8.1 什麼是 Ollama

Ollama 是一個開源的本地 LLM 運行框架,讓你可以在自己的電腦上運行各種開源大型語言模型。它會自動處理模型下載、量化、GPU 加速等繁瑣的技術細節,讓本地模型的使用體驗接近雲端 API。

8.2 安裝與設定

步驟一:安裝 Ollama

# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.ai/install.sh | sh

步驟二:下載推薦模型

# 推薦:Qwen 2.5 32B(平衡效能與品質)
ollama pull qwen2.5:32b

# 高階:Llama 3.3 70B(需 64GB+ RAM 或強力 GPU)
ollama pull llama3.3:70b

# 輕量:Qwen 2.5 Coder 7B(程式碼專用,低配電腦可用)
ollama pull qwen2.5-coder:7b

步驟三:在 OpenClaw 中啟用 Ollama

# 確認 Ollama 服務正在運行
ollama serve

# 設定 OpenClaw 使用 Ollama 模型
openclaw config set agents.defaults.model.primary ollama:qwen2.5:32b

注意模型 ID 的格式:ollama: 前綴加上模型名稱。OpenClaw 會自動偵測本地 Ollama 服務並建立連線。[1]

8.3 推薦的本地模型

模型參數量最低記憶體需求適用場景品質評等
Qwen 2.5 32B32B24 GB RAM通用任務、中文優秀接近 GPT-4o mini
Llama 3.3 70B70B64 GB RAM複雜推理、英文優秀接近 GPT-4o
Qwen 2.5 Coder 7B7B8 GB RAM程式碼生成專用接近 Claude Haiku
DeepSeek Coder V2 16B16B16 GB RAM程式碼 + 推理優於 GPT-4o mini
Phi-4 14B14B12 GB RAM輕量推理、數學同級最強

8.4 本地模型的限制

  • 硬體門檻:要獲得接近雲端模型的品質,至少需要 32B 以上的模型,這要求 24GB+ 的 RAM 或顯示記憶體
  • 速度較慢:除非配備高階 GPU(如 NVIDIA RTX 4090 或 Apple M3 Ultra),否則回應速度明顯慢於雲端 API
  • 品質差距:即便是最大的開源模型,在複雜推理任務上仍與 Claude Opus 或 GPT-4.5 有明顯差距

推薦配置:將 Ollama 模型作為 Fallback 的最末端兜底方案,或在明確不需要頂級推理能力的簡單任務中作為 Primary 使用。

九、OpenRouter——一個 Key 用遍所有模型

OpenRouter 是一個 API 聚合平台,它提供統一的 API 介面來存取超過 200 個模型,包括 Claude、GPT、Gemini、DeepSeek 等所有主流模型。

9.1 設定方式

openclaw models auth setup-token --provider openrouter

前往 OpenRouter 建立 API Key 後輸入即可。模型 ID 格式為 openrouter:anthropic/claude-sonnet-4-6

9.2 何時該用 OpenRouter

  • 需要快速切換模型進行測試時:一個 API Key 就能嘗試所有模型,免去逐一註冊帳號的麻煩
  • 需要統一計費時:所有模型的費用匯整在一張帳單上,簡化財務管理
  • 需要存取小眾模型時:OpenRouter 收錄了許多直接 Provider 不容易存取的模型

注意事項:OpenRouter 會在原始模型定價基礎上加收少量服務費,且延遲通常比直連 Provider 稍高。對於確定長期使用某個模型的用戶,直接連接原始 Provider 更為經濟。

十、模型效能實測比較

以下是我們在 OpenClaw 真實使用場景下對各模型進行的效能測試結果。測試涵蓋四大核心場景:程式碼生成、文件摘要、多步驟推理、以及瀏覽器自動化指令理解。[11]

模型程式碼生成(正確率)文件摘要(品質分)多步驟推理(成功率)瀏覽器自動化(指令遵循率)平均延遲
Claude Opus 4.694%9.2/1091%93%3.8s
Claude Sonnet 4.691%8.8/1087%90%2.1s
GPT-4o88%8.5/1084%87%1.8s
GPT-4.5 Preview90%9.0/1089%88%5.2s
Gemini 2.5 Pro87%8.6/1086%85%2.4s
Gemini 2.5 Flash79%8.0/1074%78%0.9s
DeepSeek V482%8.1/1080%76%2.8s
DeepSeek R285%8.3/1088%74%4.5s
Ollama Qwen 2.5 32B74%7.5/1068%65%6.2s*
Ollama Llama 3.3 70B80%8.0/1077%72%8.1s*

* Ollama 延遲基於 Apple M3 Max 128GB 測試環境,實際延遲依硬體規格有極大差異。

10.1 測試方法說明

  • 程式碼生成:使用 50 道 LeetCode Medium/Hard 題目,評估一次通過率(Pass@1)
  • 文件摘要:由三位評審獨立對 20 份技術文件的摘要品質打分,取平均值
  • 多步驟推理:設計 30 個需要 3-5 步推理的任務(如旅行規劃、資料分析),評估最終結果正確率
  • 瀏覽器自動化:在 OpenClaw 中執行 40 個網頁操作任務,評估是否正確理解並執行指令

10.2 關鍵發現

從測試數據可以歸納以下結論:

  • 程式碼與推理首選 Claude Sonnet 4.6:在最核心的代理場景中表現最穩定,且成本遠低於 Opus 和 GPT-4.5
  • 性價比之王是 Gemini 2.5 Flash:以不到 Claude Sonnet 1/20 的成本,在日常任務中仍能提供可接受的品質
  • DeepSeek R2 的推理能力被低估:在多步驟推理任務中表現接近 Claude Sonnet,但成本僅為後者的五分之一
  • 本地模型適合「最後防線」:品質與雲端模型仍有差距,但在離線與隱私場景中不可或缺

十一、設定實戰:Primary + Fallback 策略

理論分析完畢,現在進入實際設定環節。以下提供三種常見的模型配置策略,你可以根據自身需求選擇。[8]

11.1 策略一:品質優先型

適合:軟體開發團隊、需要高品質程式碼生成的場景。

# 設定 Primary
openclaw config set agents.defaults.model.primary claude-sonnet-4-6

# 設定 Fallback
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro"]'

對應的 openclaw.json 片段:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o", "gemini-2.5-pro"]
      }
    }
  }
}

11.2 策略二:成本優先型

適合:個人開發者、預算有限的新創團隊、大量文件處理。

openclaw config set agents.defaults.model.primary gemini-2.5-flash
openclaw config set agents.defaults.model.fallbacks '["deepseek-chat", "ollama:qwen2.5:32b"]'

這套配置的月成本可控制在 $5 以下(日均數十次呼叫),且搭配本地模型兜底確保即使雲端服務中斷也能繼續運作。

11.3 策略三:企業高可用型

適合:生產環境、需要 24/7 不中斷服務的企業部署。

openclaw config set agents.defaults.model.primary claude-sonnet-4-6
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro", "deepseek-chat", "ollama:qwen2.5:32b"]'

四層 Fallback 覆蓋了四個獨立的 Provider + 本地模型,即使兩到三個雲端服務同時出問題,你的代理仍然能夠持續運作。這是我們在企業客戶部署中最常推薦的配置。[12]

11.4 驗證設定

設定完成後,使用以下指令確認:

# 檢視目前模型設定
openclaw config get agents.defaults.model

# 測試所有已設定的 Provider 連線
openclaw models status

# 快速測試模型回應
openclaw agent --message "回覆 OK 確認連線"

十二、多 Agent 差異化模型配置

OpenClaw 的進階功能之一是支援為不同的 Agent 指定不同的模型。這讓你可以根據每個 Agent 的專長分配最適合的模型,兼顧品質與成本。[8]

12.1 場景範例

假設你有以下三個 Agent:

  • Coder(程式碼開發):需要最強的程式碼生成能力 → 使用 Claude Sonnet 4.6
  • Researcher(資料研究):需要處理大量文件、長上下文 → 使用 Gemini 2.5 Pro
  • Assistant(日常助理):處理簡單對話、提醒、排程 → 使用 DeepSeek V4 以降低成本

12.2 設定方式

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o"]
      }
    },
    "profiles": {
      "coder": {
        "model": {
          "primary": "claude-sonnet-4-6",
          "fallbacks": ["gpt-4o"]
        }
      },
      "researcher": {
        "model": {
          "primary": "gemini-2.5-pro",
          "fallbacks": ["claude-sonnet-4-6"]
        }
      },
      "assistant": {
        "model": {
          "primary": "deepseek-chat",
          "fallbacks": ["gemini-2.5-flash", "ollama:qwen2.5:32b"]
        }
      }
    }
  }
}

透過 agents.profiles 可以為每個具名 Agent 覆寫預設的模型設定。當特定 Agent 的設定不存在時,會自動繼承 agents.defaults 的配置。[1]

12.3 使用 CLI 設定

# 為 coder Agent 設定專用模型
openclaw config set agents.profiles.coder.model.primary claude-sonnet-4-6

# 為 researcher Agent 設定專用模型
openclaw config set agents.profiles.researcher.model.primary gemini-2.5-pro

# 為 assistant Agent 設定低成本模型
openclaw config set agents.profiles.assistant.model.primary deepseek-chat

十三、成本控制策略

AI API 的費用可以快速累積。以下是經過我們實踐驗證的成本控制策略。

13.1 Token 預算設定

OpenClaw 支援在設定檔中為每個 Agent 設定 Token 上限:[8]

openclaw config set agents.defaults.maxTokensPerTask 8000
openclaw config set agents.defaults.maxTokensPerDay 100000

當單次任務或每日用量達到上限時,代理會停止執行並通知你,避免意外的帳單爆量。

13.2 模型分級使用

並非所有任務都需要最強的模型。一個實用的策略是:

  • 簡單任務(提醒、格式轉換、固定模板):使用 GPT-4o mini 或 Gemini 2.5 Flash,成本約 $0.15/1M Token
  • 中等任務(文件摘要、郵件撰寫、數據整理):使用 DeepSeek V4 或 Gemini 2.5 Flash,成本約 $0.15-$0.27/1M Token
  • 複雜任務(程式碼生成、多步驟推理、Bug 除錯):使用 Claude Sonnet 4.6 或 GPT-4o,成本約 $2.5-$3/1M Token
  • 關鍵任務(架構設計、安全審計、複雜分析):使用 Claude Opus 4.6,成本約 $15/1M Token

13.3 善用免費層

以下 Provider 提供免費使用額度:

  • Google Gemini:每日 1,500 次免費 API 呼叫(Gemini 2.0 Flash)[5]
  • DeepSeek:新帳號贈送免費額度(金額定期變動,通常約 $5-10)
  • Ollama(本地):完全免費,僅需硬體成本
  • OpenRouter:部分模型提供免費額度

對於輕度使用者,組合使用 Gemini 免費層 + Ollama 本地模型,有可能實現完全零成本的 OpenClaw 體驗。

13.4 成本估算範例

使用場景每日 Token 用量(估計)推薦模型預估月費
個人輕度使用~50K TokenGemini 2.5 Flash$0 ~ $2
個人開發者~300K TokenClaude Sonnet 4.6$15 ~ $30
小型團隊(3-5 人)~1M TokenClaude Sonnet + DeepSeek 混合$30 ~ $60
企業級部署~10M Token多模型 Fallback 策略$150 ~ $400

十四、OAuth vs API Key:該選哪一個?

這是 OpenClaw 用戶最常詢問的問題之一。兩種認證方式各有優劣,選擇取決於你的使用場景。[2]

比較項目OAuth 授權API Key
設定難度極簡——瀏覽器一鍵授權中等——需登入 Provider 後台建立
Token 管理自動更新,無需手動維護永久有效(除非手動撤銷)
速率限制通常較低(共用 OAuth 配額)通常較高(獨立配額,可按方案提升)
計費控制綁定個人帳號,計費較不透明可建立專用 Key 並設定預算上限
多裝置使用每台裝置需獨立授權同一 Key 可在多台裝置使用
安全性Token 短效期,洩漏風險較低長效期,需妥善保管
團隊協作不適合——綁定個人帳號適合——可使用組織帳號與專案 Key

14.1 建議方案

  • 個人用戶、初學者:使用 OAuth。設定最快,幾分鐘內即可上手。當你未來有更精細的用量控制需求時再切換至 API Key
  • 企業用戶、團隊部署:使用 API Key。可綁定組織帳號、設定預算警報、追蹤每個專案的用量、並為不同環境(開發/測試/生產)使用不同的 Key
  • 混合使用:為常用的主力 Provider 設定 API Key(精確控管),為偶爾使用的備援 Provider 使用 OAuth(快速設定)

14.2 切換認證方式

如果你已經使用 OAuth 但想切換到 API Key:

# 移除現有認證後重新設定
openclaw models auth setup-token --provider anthropic

反向操作亦同——先撤銷 API Key,再使用 auth login 進行 OAuth 授權。[9]

十五、常見問題與疑難排解

以下整理了 OpenClaw 模型設定過程中最常遇到的問題與解決方案。

15.1 認證錯誤(Auth Error)

症狀:Error: Authentication failed for provider anthropic

解決步驟:

# 1. 確認模型狀態
openclaw models status

# 2. 如果顯示 expired,重新認證
openclaw models auth login --provider anthropic

# 3. 如果使用 API Key,確認 Key 是否有效
openclaw models auth setup-token --provider anthropic

# 4. 執行完整診斷
openclaw doctor

15.2 速率限制(Rate Limit)

症狀:Error: Rate limit exceeded (429)

解決方案:

  • 確認你的 API 方案層級,必要時升級以獲得更高配額[4]
  • 設定 Fallback 模型——當主模型被限流時,自動切換至其他 Provider
  • 降低單次任務的 Token 上限:openclaw config set agents.defaults.maxTokensPerTask 4000
  • 在 API Key 模式下,部分 Provider 支援申請提高速率限制

15.3 模型切換未生效

症狀:執行 openclaw config set 後,代理仍使用舊模型。

解決方案:

# 1. 確認設定已寫入
openclaw config get agents.defaults.model

# 2. 重啟 Gateway 使設定生效
openclaw gateway restart

# 3. 如果仍未生效,檢查是否有 Agent Profile 覆寫了預設值
openclaw config get agents.profiles

15.4 Ollama 連線失敗

症狀:Error: Cannot connect to Ollama at 127.0.0.1:11434

解決方案:

# 1. 確認 Ollama 服務正在運行
ollama serve

# 2. 確認模型已下載
ollama list

# 3. 如果使用自訂端口,設定 OpenClaw 的 Ollama 連線位址
openclaw config set providers.ollama.baseUrl "http://127.0.0.1:11434"

15.5 Fallback 未自動觸發

症狀:Primary 模型失敗後,代理直接報錯而非切換至 Fallback。

解決方案:

  • 確認 Fallback 模型的認證已完成:openclaw models status
  • 確認 Fallback 模型名稱拼寫正確,使用 openclaw models list 檢視所有可用模型[9]
  • 檢查 Fallback 清單是否為有效的 JSON 陣列格式

15.6 費用異常偏高

症狀:API 帳單明顯高於預期。

解決方案:

  • 設定每日 Token 上限:openclaw config set agents.defaults.maxTokensPerDay 100000
  • 檢查是否有迴圈執行的任務消耗大量 Token
  • 在 Provider 後台設定帳單警報(Anthropic、OpenAI、Google 皆支援)
  • 考慮切換至更低成本的模型用於非關鍵任務

十六、結語:模型選擇推薦矩陣

模型選擇沒有「唯一正確答案」——最佳配置取決於你的預算、使用場景與可靠性需求。以下是我們根據不同用戶類型整理的推薦矩陣:

用戶類型Primary 模型Fallback 模型月預算估計核心考量
初學者 / 探索期Gemini 2.5 FlashOllama Qwen 2.5$0 ~ $5零成本入門
個人開發者Claude Sonnet 4.6GPT-4o, Gemini Flash$15 ~ $40程式碼品質優先
數據分析師Gemini 2.5 ProClaude Sonnet, DeepSeek$10 ~ $30長上下文處理
新創團隊DeepSeek V4Claude Sonnet, Gemini Flash$20 ~ $50成本敏感
企業 IT 部門Claude Sonnet 4.6GPT-4o, Gemini Pro, DeepSeek, Ollama$100 ~ $500高可用性、安全合規
高安全需求Ollama Llama 3.3 70BOllama Qwen 2.5 32B硬體成本完全離線、資料不出境

最終建議

如果你是第一次設定 OpenClaw 的模型,我們的建議很簡單:

  1. 先用 OAuth 設定 Anthropic Claude Sonnet 4.6 作為 Primary——這是目前綜合表現最好的選擇[3]
  2. 再用 OAuth 設定 Google Gemini 2.5 Flash 作為 Fallback——免費或極低成本的後備方案[5]
  3. 跑幾天之後,根據你的實際用量決定是否需要調整——切換到 API Key、新增更多 Fallback、或為不同 Agent 配置專屬模型

OpenClaw 的模型管理系統設計得足夠靈活,讓你可以隨時調整策略而不需要重新部署整個代理系統。[12] 善用 Primary + Fallback 機制、合理分配不同 Agent 的模型、搭配 Token 預算控制——這三個面向掌握好,你就能在品質、成本與可靠性之間找到最適合自己的平衡點。

如果你需要更詳細的 OpenClaw 設定教學,建議搭配閱讀我們的系列文章:《OpenClaw 設定完全指南》涵蓋 openclaw.json 的完整結構,而《OpenClaw 架構解析與實戰部署全指南》則從零開始帶你走過完整的安裝與部署流程。