AI核心技巧:OpenClaw支持模型微调结果加载吗 OpenClaw自定义权重使用指南【指南】深度解析|Duuu笔记
微调权重需存于~/.openclaw/skills/子目录并符合HF格式,通过SOUL.md的model字段或config.yaml的model_path指定路径,支持本地加载或OpenRouter/Cloudflare网关接入,最后用debug日志和推理测试验证生效。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜
如果您已对OpenClawAI所依赖的大语言模型完成微调(如通过LoRA、QLoRA等方式生成适配权重),但启动后未生效或提示模型加载失败,则可能是由于权重路径未正确注册、格式不兼容或配置未指向自定义参数。以下是将微调结果成功加载至OpenClawAI的具体操作步骤:
一、确认微调权重格式与存放位置
OpenClawAI仅支持加载符合Hugging Face Transformers标准结构的微调权重,包括完整模型(full fine-tune)和LoRA/QLoRA适配器两种类型。权重必须存放在
~/.openclaw/skills/
目录下独立子文件夹中,并包含
config.json
、
pytorch_model.bin
(或
adapter_model.bin
)及
tokenizer_config.json
等必要文件。
1、创建专属权重目录:
mkdir -p ~/.
openclaw
/skills/my_lora_v1
2、将微调输出的全部文件复制进该目录,确保无遗漏;
3、检查目录内是否存在
adapter_config.json
(LoRA专用)或
config.json
(全量微调),缺失则无法识别;
4、验证tokenizer文件完整性:
ls ~/.openclaw/skills/my_lora_v1/tokenizer*
应返回至少
tokenizer.json
与
tokenizer_config.json
。
二、修改SOUL.md注入模型路径声明
SOUL.md是OpenClawAI人格配置核心文件,其中
model
字段可显式指定加载路径。系统启动时优先读取该路径,覆盖默认模型设置。路径支持绝对路径与相对路径,但必须以
file://
前缀标识本地权重。
1、打开
~/.openclaw/workspace/SOUL.md
;
2、在任意空白行插入新字段:
model: file:///home/username/.openclaw/skills/my_lora_v1
(请将
username
替换为实际用户名);
3、保存文件,确保无语法错误(禁止中文冒号、多余空格或缩进不一致);
4、确认SOUL.md顶部未被注释符
#
整段屏蔽,否则字段不生效。
三、通过config.yaml全局覆盖模型加载行为
当需对所有智能体实例统一启用同一套微调权重时,应优先修改全局配置文件config.yaml。该方式绕过SOUL.md单体限制,适用于多AGENTS场景或批量部署环境。
1、编辑
~/.openclaw/config.yaml
;
2、定位到
llm:
节点下,添加或修改
model_path:
字段:
model_path: "/home/username/.openclaw/skills/my_lora_v1"
;
白瓜AI
白瓜AI,一个免费图文AI创作工具,支持 AI 仿写,图文生成,敏感词检测,图片去水印等等。
下载
3、确保
llm:
缩进层级与同级字段(如
provider:
)一致,YAML对空格敏感;
4、若原配置含
model_id:
(如
claude-sonnet-4-5
),需将其注释或删除,避免冲突。
四、使用OpenRouter或Cloudflare AI Gateway间接加载微调模型
OpenClawAI原生支持OpenRouter与Cloudflare AI Gateway作为模型路由层。若微调权重已托管至兼容平台(如Hugging Face Spaces + Inference Endpoints),可通过网关URL方式接入,无需本地存储模型文件。
1、部署微调模型至HF Space,启用Inference API并获取可用Endpoint URL;
2、在config.yaml中设置:
provider: openrouter
或
provider: cloudflare-
ai
-gateway
;
3、对应添加
api_base:
字段,值为HF Endpoint地址(如
https://xxxx.hf.space/v1
);
4、设置
model_id:
为该Endpoint上注册的模型别名(如
my-lora-finetuned
),OpenClaw将按此标识发起请求。
五、验证权重是否实际加载
仅靠配置写入无法确认微调效果,必须通过运行时日志与推理响应双重验证。OpenClawAI在初始化LLM时会打印模型加载路径与参数量摘要,是判断权重是否载入的关键依据。
1、启动OpenClaw时添加调试标志:
openclaw run --log-level debug
;
2、在启动日志中搜索关键词
loading model from
,确认输出路径与您的微调目录一致;
3、发送测试指令:“请用法律文书风格重写以下句子”,观察输出是否呈现微调目标领域特征;
4、若日志显示
using default model
或路径指向
~/.cache/huggingface
,说明配置未生效,需回溯前四步检查。
