如何在OpenClaw中切换模型?

切换 OpenClaw 的 AI 模型是降低成本、适配不同任务的核心操作,核心逻辑是“通过配置命令指定模型的 API 地址、密钥和模型名称“,支持「云端模型切换」「本地模型切换」「多模型自动路由」三种场景,以下是新手友好的分步指南,附完整命令和验证方法。

一、核心切换逻辑

OpenClaw 本身不提供模型能力,所有推理依赖外部模型(云端 API/本地部署),切换模型本质是修改「模型配置参数」,关键参数包括:

- "llm.base_url":模型 API 地址(云端如 OpenAI 官网,本地如 Ollama 地址)

- "llm.api_key":模型 API 密钥(本地模型无需)

- "llm.model":模型名称(如 "gpt-4o-mini"/"qwen2.5:7b")

二、场景1:切换到云端低价模型(最常用)

适合日常任务(写邮件、总结、简单指令),以「GPT-4o Mini」「DeepSeek-R1」为例,成本仅为 GPT-4o 的 1/10。

1. 切换到 GPT-4o Mini(OpenAI 云端)

"""bash

1. 设置模型基础配置

claw config set llm.base_url https://api.openai.com/v1

claw config set llm.api_key "你的OpenAI API密钥"  替换为真实密钥

claw config set llm.model "gpt-4o-mini"

2. 验证配置是否生效

claw config get llm.model  输出应显示 gpt-4o-mini

3. 测试模型调用

claw run "用一句话总结 OpenClaw 的核心功能"

"""

2. 切换到 DeepSeek-R1(国内云端,更稳定)

"""bash

1. 设置 DeepSeek 配置

claw config set llm.base_url https://api.deepseek.com/v1

claw config set llm.api_key "你的DeepSeek API密钥"

claw config set llm.model "deepseek-r1"

2. 测试

claw run "写一封简单的工作日报模板"

"""

3. 常用云端低价模型参数表

模型名称 base_url model 名称 特点    
GPT-4o Mini https://api.openai.com/v1 gpt-4o-mini 性价比高,英文友好  
DeepSeek-R1 https://api.deepseek.com/v1 deepseek-r1 中文友好,成本极低  
Gemini Flash https://generativelanguage.googleapis.com/v1 gemini-1.5-flash 多模态,有免费额度  
Claude Haiku https://api.anthropic.com/v1 claude-3-haiku-20240307 长文本,成本低  

三、场景2:切换到本地模型(0成本)

适合隐私敏感、不想付费的场景,以「Ollama 部署的 Qwen2.5/LLaMA 3.2」为例,完全本地运行,无 API 费用。

1. 前置准备(安装 Ollama)

"""bash

Mac/Linux 安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

Windows 需先装 WSL2,再执行上述命令

"""

2. 拉取并运行本地模型(选轻量版)

"""bash

拉取并运行通义千问 2.5(7B,平衡效果和速度)

ollama run qwen2.5:7b

或更小的 LLaMA 3.2(3B,速度极快)

ollama run llama3.2:3b

"""

3. OpenClaw 切换到本地模型

"""bash

1. 设置本地模型配置(无需 API Key)

claw config set llm.base_url http://localhost:11434/v1  Ollama 默认端口

claw config set llm.api_key "ollama"  固定值,无需修改

claw config set llm.model "qwen2.5:7b"  对应拉取的模型名称

2. 验证

claw config get llm.base_url  输出 http://localhost:11434/v1

3. 测试本地调用(无网络也能运行)

claw run "整理下载文件夹,按类型分类"

"""

四、场景3:多模型自动路由(进阶,成本最优)

让 OpenClaw 自动根据任务难度切换模型:

- 简单任务(文件操作、提醒)→ 本地模型(0成本)

- 复杂任务(长文本总结、推理)→ 云端低价模型

- 极复杂任务(多模态、专业推理)→ 高端模型(如 Claude Sonnet)

1. 安装模型路由技能

"""bash

clawhub install model-router

"""

2. 配置路由规则

"""bash

发送自然语言指令配置规则

claw run "配置模型路由规则:

1. 简单任务(文件整理、写邮件、定时提醒)→ 使用本地模型 qwen2.5:7b

2. 中等任务(长文本总结、数据分析)→ 使用 GPT-4o Mini

3. 复杂任务(多模态、代码开发)→ 使用 Claude Sonnet

所有规则自动生效,无需手动切换"

"""

3. 验证路由效果

"""bash

简单任务 → 本地模型

claw run "重命名桌面的 test.txt 为 工作笔记.txt"

中等任务 → GPT-4o Mini

claw run "总结 1000 字的会议记录,提取核心待办"

"""

五、关键操作:重置/恢复模型配置

1. 查看当前所有模型配置

"""bash

claw config list | grep llm  过滤出所有模型相关配置

"""

2. 重置模型配置(出错时用)

"""bash

claw config reset llm  重置所有模型配置为默认

"""

3. 恢复到之前的模型(如 Claude Sonnet)

"""bash

保存常用配置为模板(可选)

claw config save claude-sonnet  保存当前配置为 claude-sonnet 模板

恢复模板

claw config load claude-sonnet

"""

六、避坑要点

1. “本地模型启动前需确保 Ollama 运行“:

   """bash

   ollama serve  启动 Ollama 服务(后台运行)

   """

2. “API Key 错误会导致调用失败“:

   - 检查密钥是否复制完整(无空格、无多余字符)

   - 云端模型需确保账号有余额

3. “模型名称必须完全匹配“:

   - 本地模型名称需和 "ollama list" 输出一致(如 "qwen2.5:7b" 而非 "qwen2.5")

   - 云端模型名称需和官方文档一致(如 "gpt-4o-mini" 而非 "gpt-4o mini")

4. “切换模型后重启 OpenClaw(可选)“:

   """bash

   claw restart  确保配置生效

   """

总结

1. 切换 OpenClaw 模型核心是修改 "llm.base_url"/"llm.api_key"/"llm.model" 三个参数;

2. 日常任务优先用「云端低价模型」或「本地模型」,大幅降低成本;

3. 进阶可配置「模型路由」,让 OpenClaw 自动选最优模型,兼顾成本和效果;

4. 切换后通过 "claw run" 测试指令,验证模型是否正常调用。

本文链接:https://www.idcbest.com/cloundnews/11016899.html



天下数据手机站 关于天下数据 联系我们 诚聘英才 付款方式 帮助中心 网站备案 解决方案 域名注册 网站地图

天下数据18年专注海外香港服务器、美国服务器、海外云主机、海外vps主机租用托管以及服务器解决方案-做天下最好的IDC服务商

《中华人民共和国增值电信业务经营许可证》 ISP证:粤ICP备07026347号

朗信天下发展有限公司(控股)深圳市朗玥科技有限公司(运营)联合版权

深圳总部:中国.深圳市南山区深圳国际创新谷6栋B座10层 香港总部:香港上環蘇杭街49-51號建安商業大廈7樓

7×24小时服务热线:4006388808香港服务电话:+852 67031102

本网站的域名注册业务代理北京新网数码信息技术有限公司的产品

工商网监图标