国产大模型接入指南
国产大模型近年来快速发展,OpenClaw 已支持主流国产模型的接入。本指南按"如何选 → 如何配 → 如何兜底"组织。
🇨🇳 主流国产模型对比
| 模型 | 特点 | 适用场景 | 接入方式 |
|---|---|---|---|
| 文心一言(ERNIE) | 中文理解强,知识覆盖广 | 通用对话、知识问答 | 原生 API / OpenAI 兼容 |
| 通义千问(Qwen) | 代码能力强,多语言支持好 | 代码生成、技术文档 | OpenAI 兼容 |
| 智谱 GLM | 数学推理强,学术场景佳 | 数据分析、学术研究 | 原生 API |
| 百川 Baichuan | 性价比高,响应速度快 | 高并发场景 | 原生 API |
| Kimi | 长文本处理,文件解析 | 文档分析、总结 | 原生 API |
🚀 快速接入
方式一:OpenAI 兼容接口(推荐)
适用于通义千问、DeepSeek 等提供 OpenAI 兼容接口的服务:
{
models: {
providers: {
qwen: {
baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
apiKey: "sk-xxxxxxxx",
models: [
{ id: "qwen-plus", name: "qwen-plus" },
{ id: "qwen-turbo", name: "qwen-turbo" },
],
},
},
},
agents: {
defaults: {
model: {
primary: "qwen/qwen-plus",
},
},
},
}方式二:原生 SDK 接入
适用于文心一言、智谱 GLM 等有独立 API 的服务:
{
models: {
providers: {
wenxin: {
type: "ernie",
apiKey: "your-api-key",
secretKey: "your-secret-key",
},
glm: {
type: "glm",
apiKey: "your-api-key",
},
},
},
}💡 实战建议
成本优化
- 日常对话:使用 turbo 版本(如 qwen-turbo)
- 复杂任务:使用 plus/pro 版本
- 本地兜底:配置 Ollama 本地模型 作为回退
稳定性保障
配置多模型故障转移,确保服务不中断:
{
agents: {
defaults: {
model: {
primary: "qwen/qwen-plus",
fallbacks: [
"deepseek/deepseek-chat", // 国产备选
"openai/gpt-4o-mini", // 海外备选
"ollama/llama3", // 本地兜底
],
},
},
},
}详见:故障转移配置
📋 接入检查清单
- 获取 API Key(部分厂商需同时获取 Secret Key)
- 确认 API 端点地址(注意国内外节点差异)
- 测试基础连通性:
openclaw models status --probe - 配置故障转移链路
- 设置请求限流(避免超限)
🔗 相关文档
❓ 常见问题
Q: 国产模型和 Claude/GPT 相比怎么样? A: 各有所长。中文场景下,国产模型表现不俗;代码和推理任务,GPT-4/Claude 仍有优势。建议混合使用。
Q: 如何避免 API 调用超限?
A: 配置故障转移 + 设置本地模型兜底 + 监控使用量(openclaw status)。
Q: 国内服务器访问海外模型慢怎么办? A: 使用国内代理节点,或直接切换到国产模型 + 本地模型组合。