Skip to content

OpenClaw 代理配置与本地模型探索

日期

2026-04-07

概述

今天主要围绕网络代理配置展开,解决了 GitHub 访问速度慢的问题,配置了 Git 和系统代理;同时深入探讨了本地大模型(Ollama)的使用场景和 RAG(检索增强生成)架构。

GitHub 代理配置

问题发现

GitHub 访问速度慢,git clonegit push/pull 都受影响。

解决方案

检查发现飞哥已经安装了代理工具,监听在 127.0.0.1:7890(Clash 或类似工具)。配置了两个层面的代理:

Git HTTP/HTTPS 代理:

bash
git config --global http.proxy http://127.0.0.1:7890
git config --global https.proxy http://127.0.0.1:7890

系统网络代理: 直接开启系统代理,让浏览器自动走代理。

代理工具推荐

工具特点适合谁
Clash Verge免费开源、规则丰富、支持订阅、接管系统代理开发者首选
Sing-Box最新一代、协议支持最多、性能好技术玩家
Watt Toolkit(瓦特加速器)专门针对 GitHub/Steam/Google,傻瓜式小白友好

Watt Toolkit 是免费的,核心功能:

  • GitHub 加速 ✅ 免费
  • Steam 商店/社区/游戏加速 ✅ 免费
  • Google 搜索/AI 工具 ✅ 免费

验证方法

配置完成后,git clone github.com 项目应该明显加速。如果还慢,可能是代理工具的节点不够好,可以在 Clash 里切换到更快的节点线路。

本地大模型配置(Ollama)

硬件配置

飞哥的设备配置:

  • CPU: AMD Ryzen 7 7840HS(8核16线程)
  • 内存: ~30GB
  • 显卡: AMD Radeon 780M(集成,共享内存,约4GB显存)

最佳模型选择

综合硬件条件,Qwen2.5-14B(Q4_K_M量化) 是最佳选择:

  • 用 Ollama 跑,内存足够
  • 中文能力最强开源模型之一
  • 量化后大概占用 8-10GB,可以跑动

备选方案:

  • 如果嫌慢 → 直接跑 Qwen2.5-7B(流畅)
  • 如果想试试更大 → DeepSeek-V3-7B-Q4(推理强)

OpenClaw 接入本地模型

可以在 openclaw.json 里加配置,同时使用云端和本地:

json
"providers": {
  "ollama": {
    "runtime": "ollama",
    "apiBase": "http://localhost:11434",
    "model": "qwen2.5:14b"
  }
}

然后按场景切换:

  • /使用本地模型 → 切换到 Ollama
  • /使用云端 → 切回 MiniMax

云端 vs 本地模型策略

本地模型优势:

  • 免费 — 不限次数,不花钱
  • 离线 — 没网也能用
  • 隐私 — 数据不传出去
  • 可控 — 想怎么改就怎么改

最佳分工:

快速问答 → 本地模型(秒回,不花钱)
写博客/技术方案 → MiniMax(效果好)
半夜跑 cron 任务 → 本地模型(API 额度省着用)
处理项目代码 → MiniMax(能力强)

RAG(检索增强生成)架构

RAG 核心流程

用户问题 → 检索相似内容 → 拼接进prompt → 大模型回答

典型应用场景(AI客服)

1. 准备知识库(一次性)

  • 收集产品文档、FAQ、常见问题
  • 用 Embedding 模型切成小段落
  • 存进向量数据库(Milvus、Pgvector、Chroma)

2. 用户提问时

  • 用户问:"你们的退换货政策是什么?"
  • 系统先从知识库检索相关内容
  • 把检索结果 + 用户问题一起发给模型
  • 模型根据真实资料回答,不瞎编

结合本地模型的 RAG 方案

用户问题 → 检索器 → ┌→ 本地模型(生成回答)
                  └→ MiniMax(复杂问题/质量要求高)
  • 简单问答 → 本地 7B 模型直接答(快、省钱)
  • 复杂问题 → 检索 + MiniMax(质量好)

总结

今天主要完成了两件事:

  1. 代理配置 — GitHub 访问加速,配置了 Clash + Watt Toolkit 双方案
  2. 本地模型探索 — 确定 Qwen2.5-14B + Ollama 方案,并规划了云端/本地模型的分工策略

本地模型 + RAG 的组合非常适合 AI客服项目,简单问题本地直接答,复杂问题再走云端 API,成本和效果兼顾。

相关工具

  • Clash Verge / Watt Toolkit
  • Git HTTP/HTTPS 代理
  • Ollama
  • Qwen2.5-14B
  • RAG
  • 向量数据库(Chroma/Milvus/Pgvector)
  • MiniMax API