OpenClaw 代理配置与本地模型探索
日期
2026-04-07
概述
今天主要围绕网络代理配置展开,解决了 GitHub 访问速度慢的问题,配置了 Git 和系统代理;同时深入探讨了本地大模型(Ollama)的使用场景和 RAG(检索增强生成)架构。
GitHub 代理配置
问题发现
GitHub 访问速度慢,git clone 和 git push/pull 都受影响。
解决方案
检查发现飞哥已经安装了代理工具,监听在 127.0.0.1:7890(Clash 或类似工具)。配置了两个层面的代理:
Git HTTP/HTTPS 代理:
bash
git config --global http.proxy http://127.0.0.1:7890
git config --global https.proxy http://127.0.0.1:7890系统网络代理: 直接开启系统代理,让浏览器自动走代理。
代理工具推荐
| 工具 | 特点 | 适合谁 |
|---|---|---|
| Clash Verge | 免费开源、规则丰富、支持订阅、接管系统代理 | 开发者首选 |
| Sing-Box | 最新一代、协议支持最多、性能好 | 技术玩家 |
| Watt Toolkit(瓦特加速器) | 专门针对 GitHub/Steam/Google,傻瓜式 | 小白友好 |
Watt Toolkit 是免费的,核心功能:
- GitHub 加速 ✅ 免费
- Steam 商店/社区/游戏加速 ✅ 免费
- Google 搜索/AI 工具 ✅ 免费
验证方法
配置完成后,git clone github.com 项目应该明显加速。如果还慢,可能是代理工具的节点不够好,可以在 Clash 里切换到更快的节点线路。
本地大模型配置(Ollama)
硬件配置
飞哥的设备配置:
- CPU: AMD Ryzen 7 7840HS(8核16线程)
- 内存: ~30GB
- 显卡: AMD Radeon 780M(集成,共享内存,约4GB显存)
最佳模型选择
综合硬件条件,Qwen2.5-14B(Q4_K_M量化) 是最佳选择:
- 用 Ollama 跑,内存足够
- 中文能力最强开源模型之一
- 量化后大概占用 8-10GB,可以跑动
备选方案:
- 如果嫌慢 → 直接跑 Qwen2.5-7B(流畅)
- 如果想试试更大 → DeepSeek-V3-7B-Q4(推理强)
OpenClaw 接入本地模型
可以在 openclaw.json 里加配置,同时使用云端和本地:
json
"providers": {
"ollama": {
"runtime": "ollama",
"apiBase": "http://localhost:11434",
"model": "qwen2.5:14b"
}
}然后按场景切换:
/使用本地模型→ 切换到 Ollama/使用云端→ 切回 MiniMax
云端 vs 本地模型策略
本地模型优势:
- 免费 — 不限次数,不花钱
- 离线 — 没网也能用
- 隐私 — 数据不传出去
- 可控 — 想怎么改就怎么改
最佳分工:
快速问答 → 本地模型(秒回,不花钱)
写博客/技术方案 → MiniMax(效果好)
半夜跑 cron 任务 → 本地模型(API 额度省着用)
处理项目代码 → MiniMax(能力强)RAG(检索增强生成)架构
RAG 核心流程
用户问题 → 检索相似内容 → 拼接进prompt → 大模型回答典型应用场景(AI客服)
1. 准备知识库(一次性)
- 收集产品文档、FAQ、常见问题
- 用 Embedding 模型切成小段落
- 存进向量数据库(Milvus、Pgvector、Chroma)
2. 用户提问时
- 用户问:"你们的退换货政策是什么?"
- 系统先从知识库检索相关内容
- 把检索结果 + 用户问题一起发给模型
- 模型根据真实资料回答,不瞎编
结合本地模型的 RAG 方案
用户问题 → 检索器 → ┌→ 本地模型(生成回答)
└→ MiniMax(复杂问题/质量要求高)- 简单问答 → 本地 7B 模型直接答(快、省钱)
- 复杂问题 → 检索 + MiniMax(质量好)
总结
今天主要完成了两件事:
- 代理配置 — GitHub 访问加速,配置了 Clash + Watt Toolkit 双方案
- 本地模型探索 — 确定 Qwen2.5-14B + Ollama 方案,并规划了云端/本地模型的分工策略
本地模型 + RAG 的组合非常适合 AI客服项目,简单问题本地直接答,复杂问题再走云端 API,成本和效果兼顾。
相关工具
- Clash Verge / Watt Toolkit
- Git HTTP/HTTPS 代理
- Ollama
- Qwen2.5-14B
- RAG
- 向量数据库(Chroma/Milvus/Pgvector)
- MiniMax API