OpenClaw最新版新增支持哪些模型 OpenClaw v2.1模型支持更新说明说明深度解析|Duuu笔记
OpenClawAI v2.1 新增 MiniMax 2.1 系列模型原生支持,调整 DeepSeek 接入为 openrouter 桥接,升级 Pi-AI 至 0.50.9 版本,并明确多模态启用条件。
如果您正在使用 OpenClawAI 并希望启用最新大模型能力,则需确认当前版本是否已集成对应模型接口及认证机制。OpenClawAI v2.1 版本在模型支持层面进行了明确扩展与适配调整,以下是具体更新内容:
一、新增官方原生支持的模型
v2.1 版本正式将 MiniMax 2.1 系列模型纳入默认 provider 列表,包括 abab6.5s 和 abab7t 两款主力推理模型。该支持依赖于 provider 配置中正确声明 api 类型与 base URL,且要求 authHeader 字段显式设为 true。
1、在 config.json 的 providers 字段下添加 minimax 配置块;
2、将 baseUrl 设置为
https://api.minimaxi.com/anthropic
(国内用户专用地址);
3、确保 apiKey 值为有效 MiniMax 平台颁发的密钥;
4、指定 api 字段为
anthropic-messages
,以启用兼容 Anthropic 协议的消息流交互。
二、DeepSeek 模型接入方式变更
v2.1 不再默认内置 DeepSeek-V3 或 DeepSeek-R1 的直连适配,转而通过统一的 openrouter 接口桥接调用。该方式要求应用归属标头(X-OpenRouter-Application)被正确注入请求头,以标识流量来源并触发对应路由策略。
1、启用 openrouter provider 配置项;
2、在请求上下文中设置
X-OpenRouter-Application:
openclaw
-v2.1
标头;
3、在 model 字段中指定
deepseek
-v3 或
deepseek
-r1 作为目标模型名;
4、确保 openrouter API Key 已配置且具备对应模型调用权限。
Action Figure AI
借助Action Figure AI的先进技术,瞬间将照片转化为定制动作人偶。
下载
三、Pi-AI 模型升级至 0.50.9 版本
内嵌 Pi-AI 推理引擎已从旧版升级至 0.50.9,该版本同步支持结构化输出约束(JSON Schema)、工具调用前钩子(before_tool_call)及更严格的上下文窗口解析限制。此升级影响所有基于 pi-coding-agent 的技能执行链路。
1、检查本地 pi-
ai
包版本是否为 0.50.9;
2、确认 CreateAgentSessionOptions 中未覆盖 systemPrompt 默认模板;
3、验证 cacheRetention 参数已替代旧版 cacheControlTtl,且单位为毫秒;
4、若使用自定义提示模板,请确保日期时间变量通过 session_status 动态注入而非硬编码。
四、多模态模型支持启用条件
v2.1 明确启用多模态能力,但需满足两个前置条件:模型 provider 必须返回 supports_vision = true 响应字段,且客户端输入中必须包含 base64 编码图像数据与 text 描述混合的消息体。当前仅部分 openrouter 后端模型满足该条件。
1、发起 /v1/models 请求,筛选响应中 supports_vision 字段为 true 的模型;
2、构造 messages 数组,其中至少一条 message 的 content 为数组类型;
3、在 content 数组中混排 text 类型字符串与 image_url 类型对象;
4、image_url 对象中的 url 字段值必须为 data:image/*;base64, 开头的有效 base64 图像字符串。
