AI OpenClaw兼容哪些中文大模型 OpenClaw支持的中文模型汇总汇总|Duuu笔记
OpenClawAI兼容三类中文大模型:一、国产API型(MiniMax、GLM、Kimi、通义千问),需按规范配置Endpoint与适配层;二、本地部署型(DeepSeek-Coder、Qwen2、Yi系列),须满足硬件与参数要求;三、聚合网关型(OpenRouter、Doubao),需启用对应插件并注意权限限制。
如果您在配置OpenClawAI时发现中文指令响应迟滞、语义理解偏差或技能调用失败,则很可能是所选
大模型
未针对中文场景深度优化,或未正确接入适配层。以下是OpenClawAI当前明确兼容并经实测验证的中文大模型清单及对应接入要点:
一、国产主流API型大模型
该类模型通过标准HTTP API接口接入,依赖厂商提供的密钥与兼容OpenAI格式的Endpoint,适用于对延迟敏感、需高并发响应的办公与自动化场景。
1、MiniMax系列:支持M2.5、M2.5-highspeed、M2.1、M2.1-highspeed及M2全型号;需配置
baseUrl
为
https://api.minimaxi.com/v1
,并启用
openai-completions
协议适配层。
2、智谱AI GLM系列:GLM-5与GLM-4.7已通过OpenClaw v2.3.0+版本原生认证;GLM-5在复杂任务规划与代码生成中表现最优,但
Token消耗速率较GLM-4.7高出约38%
。
立即进入
“
豆包AI人工智官网入口
”;
“
豆包AI人工智能在线问答入口
”;
3、月之暗面Kimi:Kimi 2.5模型可直连,需使用其官方v1/chat/completions兼容端点;实测显示其
Bug修复能力显著优于同级模型,但上下文窗口保持稳定性略低于GLM-5
。
4、阿里云通义千问:Qwen-Max与Qwen-Plus可在百炼平台开通后接入;免费版Qwen在OpenClaw中
Skill依从性不足,易忽略工具调用指令,不建议用于生产环境
。
像素蛋糕PixCake
像素级AI图像精修软件
下载
二、本地部署型中文大模型
该类模型需用户自行下载权重、配置推理服务(如llama.cpp、vLLM或Ollama),适用于对数据隐私要求极高、网络受限或需离线运行的场景。
1、DeepSeek-Coder系列:DeepSeek-Coder-33B-Instruct已通过OpenClaw本地模型适配器测试;需设置
model_type
为
deepseek-coder
,并启用
tool_calling
增强模式。
2、Qwen2系列:Qwen2-7B-Instruct与Qwen2-72B-Instruct均支持;其中72B版本需至少24GB显存,且
必须关闭flash_attention_2以避免OpenClaw技能解析器崩溃
。
3、零一万物Yi系列:Yi-1.5-9B-Chat与Yi-1.5-34B-Chat完成OpenClaw v2.4.1兼容性验证;接入时需将
temperature
强制设为0.3以下,否则
多步骤工作流易出现指令遗忘现象
。
三、聚合网关型中文模型通道
该路径不直接对接单个模型,而是通过统一路由层(如OpenRouter)间接调用多个中文模型供应商,适合需动态切换、A/B测试或规避单一服务商限流的用户。
1、OpenRouter中文模型池:已收录MiniMax-M2.5、GLM-5、Kimi-2.5、Qwen2-72B等ID;使用单一API Key即可路由,但
需手动在OpenClaw中启用openrouter-provider插件并禁用模型缓存
。
2、Doubao(
豆包
)模型通道:2026年2月新增支持;接入后可调用字节跳动自研的Doubao-Pro与Doubao-LongContext;注意
Doubao-Pro仅开放给企业认证账号,个人开发者需申请白名单权限
。
