当前位置:首页 > AI技术 > 正文内容

AI核心技巧:OpenClaw支持模型微调结果加载吗 OpenClaw自定义权重使用指南【指南】深度解析|Duuu笔记

admin2周前 (03-27)AI技术14

微调权重需存于~/.openclaw/skills/子目录并符合HF格式,通过SOUL.md的model字段或config.yaml的model_path指定路径,支持本地加载或OpenRouter/Cloudflare网关接入,最后用debug日志和推理测试验证生效。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您已对OpenClawAI所依赖的大语言模型完成微调(如通过LoRA、QLoRA等方式生成适配权重),但启动后未生效或提示模型加载失败,则可能是由于权重路径未正确注册、格式不兼容或配置未指向自定义参数。以下是将微调结果成功加载至OpenClawAI的具体操作步骤:

一、确认微调权重格式与存放位置

OpenClawAI仅支持加载符合Hugging Face Transformers标准结构的微调权重,包括完整模型(full fine-tune)和LoRA/QLoRA适配器两种类型。权重必须存放在

~/.openclaw/skills/

目录下独立子文件夹中,并包含

config.json

pytorch_model.bin

(或

adapter_model.bin

)及

tokenizer_config.json

等必要文件。

1、创建专属权重目录:

mkdir -p ~/.

openclaw

/skills/my_lora_v1

2、将微调输出的全部文件复制进该目录,确保无遗漏;

3、检查目录内是否存在

adapter_config.json

(LoRA专用)或

config.json

(全量微调),缺失则无法识别;

4、验证tokenizer文件完整性:

ls ~/.openclaw/skills/my_lora_v1/tokenizer*

应返回至少

tokenizer.json

tokenizer_config.json

二、修改SOUL.md注入模型路径声明

SOUL.md是OpenClawAI人格配置核心文件,其中

model

字段可显式指定加载路径。系统启动时优先读取该路径,覆盖默认模型设置。路径支持绝对路径与相对路径,但必须以

file://

前缀标识本地权重。

1、打开

~/.openclaw/workspace/SOUL.md

2、在任意空白行插入新字段:

model: file:///home/username/.openclaw/skills/my_lora_v1

(请将

username

替换为实际用户名);

3、保存文件,确保无语法错误(禁止中文冒号、多余空格或缩进不一致);

4、确认SOUL.md顶部未被注释符

#

整段屏蔽,否则字段不生效。

三、通过config.yaml全局覆盖模型加载行为

当需对所有智能体实例统一启用同一套微调权重时,应优先修改全局配置文件config.yaml。该方式绕过SOUL.md单体限制,适用于多AGENTS场景或批量部署环境。

1、编辑

~/.openclaw/config.yaml

2、定位到

llm:

节点下,添加或修改

model_path:

字段:

model_path: "/home/username/.openclaw/skills/my_lora_v1"

白瓜AI

白瓜AI,一个免费图文AI创作工具,支持 AI 仿写,图文生成,敏感词检测,图片去水印等等。

下载

3、确保

llm:

缩进层级与同级字段(如

provider:

)一致,YAML对空格敏感;

4、若原配置含

model_id:

(如

claude-sonnet-4-5

),需将其注释或删除,避免冲突。

四、使用OpenRouter或Cloudflare AI Gateway间接加载微调模型

OpenClawAI原生支持OpenRouter与Cloudflare AI Gateway作为模型路由层。若微调权重已托管至兼容平台(如Hugging Face Spaces + Inference Endpoints),可通过网关URL方式接入,无需本地存储模型文件。

1、部署微调模型至HF Space,启用Inference API并获取可用Endpoint URL;

2、在config.yaml中设置:

provider: openrouter

provider: cloudflare-

ai

-gateway

3、对应添加

api_base:

字段,值为HF Endpoint地址(如

https://xxxx.hf.space/v1

);

4、设置

model_id:

为该Endpoint上注册的模型别名(如

my-lora-finetuned

),OpenClaw将按此标识发起请求。

五、验证权重是否实际加载

仅靠配置写入无法确认微调效果,必须通过运行时日志与推理响应双重验证。OpenClawAI在初始化LLM时会打印模型加载路径与参数量摘要,是判断权重是否载入的关键依据。

1、启动OpenClaw时添加调试标志:

openclaw run --log-level debug

2、在启动日志中搜索关键词

loading model from

,确认输出路径与您的微调目录一致;

3、发送测试指令:“请用法律文书风格重写以下句子”,观察输出是否呈现微调目标领域特征;

4、若日志显示

using default model

或路径指向

~/.cache/huggingface

,说明配置未生效,需回溯前四步检查。

相关文章

【深度学习】Java DL4J 2024年度技术总结

一、Java DL4J深度学习概述 1.1 DL4J框架简介 1.2 与其他深度学习框架的比较 1.3 DL4J 的优势 1.3.1 与 Java 生态系统的无...

什么是LLM?看这一篇就够了!

一、全套AGI大模型学习路线 AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能! 二、640套AI大模型报告合集 这套包含640份报告的合集,涵盖了AI大...

LLM介绍

。LLM 被证明在使用指令形式化描述的未见过的任务上表现良好。这意味着 LLM 能够根据任务指令执行任务,而无需事先见过具体示例,展示了其强大的泛化能力。 :小型语言模型通常难以解决涉...

【DL】2023年你应该知道的 10 大深度学习算法

3. 循环神经网络 (RNN) 4. 生成对抗网络 (GAN) 5. 径向基函数网络 (RBFN) 6. 多层感知器 (MLP) 7. 自组织图 (SOM)...

推荐10个AI人工智能技术网站

除了研究和开发人工智能技术,OpenAI还积极参与人工智能伦理和安全的研究和探讨。 认为,人工智能技术的发展必须遵循伦理和法律的规范,以确保人工智能的应用不会对人类带来负面影响。...

什么是人工智能 ?

您可以使用 ML 训练 AI,使其精确、快速地执行任务。这可以通过自动化员工感到吃力或厌烦的业务部分来提高运营效率。同样,您可以使用 AI 自动化来腾出员工资源,用于更复杂和更具创造性的工作。...

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。