国产大模型接入指南

国产大模型接入指南

国产大模型近年来快速发展,OpenClaw 已支持主流国产模型的接入。本指南按"如何选 → 如何配 → 如何兜底"组织。

🇨🇳 主流国产模型对比

模型特点适用场景接入方式
文心一言(ERNIE)中文理解强,知识覆盖广通用对话、知识问答原生 API / OpenAI 兼容
通义千问(Qwen)代码能力强,多语言支持好代码生成、技术文档OpenAI 兼容
智谱 GLM数学推理强,学术场景佳数据分析、学术研究原生 API
百川 Baichuan性价比高,响应速度快高并发场景原生 API
Kimi长文本处理,文件解析文档分析、总结原生 API

🚀 快速接入

方式一:OpenAI 兼容接口(推荐)

适用于通义千问、DeepSeek 等提供 OpenAI 兼容接口的服务:

{
  models: {
    providers: {
      qwen: {
        baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1",
        apiKey: "sk-xxxxxxxx",
        models: [
          { id: "qwen-plus", name: "qwen-plus" },
          { id: "qwen-turbo", name: "qwen-turbo" },
        ],
      },
    },
  },
  agents: {
    defaults: {
      model: {
        primary: "qwen/qwen-plus",
      },
    },
  },
}

方式二:原生 SDK 接入

适用于文心一言、智谱 GLM 等有独立 API 的服务:

{
  models: {
    providers: {
      wenxin: {
        type: "ernie",
        apiKey: "your-api-key",
        secretKey: "your-secret-key",
      },
      glm: {
        type: "glm",
        apiKey: "your-api-key",
      },
    },
  },
}

💡 实战建议

成本优化

  • 日常对话:使用 turbo 版本(如 qwen-turbo)
  • 复杂任务:使用 plus/pro 版本
  • 本地兜底:配置 Ollama 本地模型 作为回退

稳定性保障

配置多模型故障转移,确保服务不中断:

{
  agents: {
    defaults: {
      model: {
        primary: "qwen/qwen-plus",
        fallbacks: [
          "deepseek/deepseek-chat",  // 国产备选
          "openai/gpt-4o-mini",       // 海外备选
          "ollama/llama3",            // 本地兜底
        ],
      },
    },
  },
}

详见:故障转移配置

📋 接入检查清单

  • 获取 API Key(部分厂商需同时获取 Secret Key)
  • 确认 API 端点地址(注意国内外节点差异)
  • 测试基础连通性:openclaw models status --probe
  • 配置故障转移链路
  • 设置请求限流(避免超限)

🔗 相关文档

❓ 常见问题

Q: 国产模型和 Claude/GPT 相比怎么样? A: 各有所长。中文场景下,国产模型表现不俗;代码和推理任务,GPT-4/Claude 仍有优势。建议混合使用。

Q: 如何避免 API 调用超限? A: 配置故障转移 + 设置本地模型兜底 + 监控使用量(openclaw status)。

Q: 国内服务器访问海外模型慢怎么办? A: 使用国内代理节点,或直接切换到国产模型 + 本地模型组合。