400-638-8808
|
微信公众号




OpenClaw 在最新版本中正式加入了捆绑的 LM Studio Provider,为本地运行的大语言模型带来了完整、开箱即用的集成支持。这一新增组件极大简化了用户将本地 LLM 接入 OpenClaw 的流程,让自托管模型的使用变得更加便捷高效。
解决的问题
此前,许多希望在本地运行大语言模型(如 Ollama、LM Studio、text generation webui 等)的用户反映,OpenClaw 对自托管 OpenAI 兼容端点的支持存在不足,配置过程较为复杂且不够稳定。LM Studio Provider 的推出正是为了攻克这一难点,使本地模型的接入变得即插即用,无需繁琐的手动配置。
核心特性
开箱即用的配置引导:系统提供首次配置向导,以交互式界面引导用户一步步完成与 LM Studio 的连接设置,大幅降低上手门槛。
运行时模型自动发现:Provider 能够实时检测 LM Studio 中当前可用的模型列表,用户无需手动填写模型名称或 ID。
Stream preload 支持:针对流式输出场景进行了首 token 延迟优化,显著改善实时交互的响应速度。
本地 Embedding 用于记忆搜索:支持调用本地 embedding 模型,为语义搜索、记忆检索等高级功能提供完整的本地化支持。
隐私优先设计:所有模型推理任务均在用户本地设备上完成,数据不会离开当前环境,充分满足数据安全和隐私保护需求。
适用场景
配置示例
在 OpenClaw 的配置文件中添加以下内容,即可完成 LM Studio Provider 的基础设置:
{ "models": { "providers": { "lm-studio": { "endpoint": "http://localhost:1234/v1", "api_key": "lm-studio" } } } }
开启方式
通过命令行工具执行以下命令,并按提示输入 LM Studio 的服务地址(默认值为 http://localhost:1234):
openclaw configure --provider lm-studio
LM Studio Provider 的加入,显著增强了 OpenClaw 在本地大语言模型生态中的集成能力。无论是出于离线使用、隐私合规、成本控制还是开发测试的需求,用户现在都可以通过简洁的配置,将 OpenClaw 与本地运行的 LM Studio 无缝对接,享受高效、安全、可控的 LLM 调用体验。

BestClaw 是由天下数据打造的 OpenClaw 专属云主机解决方案,集服务器 + API + 部署 + 售后于一体。
天下数据手机站 关于天下数据 联系我们 诚聘英才 付款方式 帮助中心 网站备案 解决方案 域名注册 网站地图
天下数据18年专注海外香港服务器、美国服务器、海外云主机、海外vps主机租用托管以及服务器解决方案-做天下最好的IDC服务商
《中华人民共和国增值电信业务经营许可证》 ISP证:粤ICP备07026347号
朗信天下发展有限公司(控股)深圳市朗玥科技有限公司(运营)联合版权
深圳总部:中国.深圳市南山区深圳国际创新谷6栋B座10层 香港总部:香港上環蘇杭街49-51號建安商業大廈7樓
7×24小时服务热线:4006388808香港服务电话:+852 67031102
本网站的域名注册业务代理北京新网数码信息技术有限公司的产品