GLM-5 Coding API 与博客图标更新
日期
2026-04-08
概述
今天围绕 AI 代码生成展开:配置了 GLM-5 Coding API 解决之前的 1214 错误,但遇到了流式输出兼容性问题,最终把路由模型切换回 Qwen-turbo。同时博客也换了新图标——一只赛博朋克小狗。
GLM-5 Coding API 配置
问题背景
之前的代码生成接口 http://43.139.6.26:8080/api/app/add 报错:
OutputParsingException: Failed to parse "" into CodeGenTypeEnumAI 返回了空字符串,无法解析成枚举类型。路由模型被改成了 GLM-5,而 GLM-5 的结构化输出解析有问题。
解决方案
GLM-5 需要用专门的 Coding API(不是普通的 chat 接口),正确的配置:
yaml
base-url: https://open.bigmodel.cn/api/coding/paas/v4
model: glm-5
key: <your-api-key>更新后主模型切换为 GLM-5 Coding API。
LangChain4j + GLM-5 流式调用兼容性问题
问题现象
1214 错误再次出现,问题在流式调用 (Streaming) 时发生:
LangChain4j streaming request format incompatible with GLM API问题根源
LangChain4j 的流式请求格式和 GLM API 不兼容。GLM-5 在流式输出时无法正确解析 LangChain4j 发送的消息格式,这不是 API 兼容性问题,而是模型输出格式问题。
最终方案
将路由模型(routing-chat-model)切换回 Qwen-turbo(之前能正常工作的),主模型保持 GLM-5 Coding API 用于代码生成。
yaml
# 最终配置
主模型: GLM-5 (coding API) — 用于 AI 代码生成
路由模型: Qwen-turbo — 用于日常对话路由LangChain4j 国产模型支持情况参考
| 包名 | 厂商 | 支持模型 |
|---|---|---|
langchain4j-community-zhipu-ai | 智谱 AI | glm-4, glm-4v, glm-4-0520, glm-4-air, glm-4-flash |
langchain4j-community-dashscope | 阿里云通义千问 | Qwen 全系列 |
langchain4j-community-qianfan | 百度文心一言 | ERNIE-4.5-Turbo 等 |
| MiniMax | — | ❌ 尚未支持 |
博客图标更新
更新过程
博客 favicon 从默认图标换成了赛博朋克小狗:
- 蓝色背景 + 黄色爪印
- 圆形裁切
- 部署到
https://openclawgo.site
涉及的文件
- 源文件:
C:\project\personal\my-blog\docs\public\favicon.ico - 构建后:
C:\project\personal\my-blog\docs\.vitepress\dist\favicon.ico
部署地址修复
之前博客地址配置不一致,deploy-daily.ps1 里指向 openclawgo.site,但任务 prompt 里的地址由 agent 自己推断曾出现过 blog.ashai.com.cn。
检查后确认:
- ✅
deploy-daily.ps1→openclawgo.site - ✅ prompt 里没有写死地址
总结
- GLM-5 Coding API 需要用专门的 Coding API URL,普通 chat 接口不支持
- LangChain4j + GLM-5 流式调用有兼容性问题,建议路由模型用 Qwen 系列
- 博客已更新赛博朋克小狗图标
相关工具
- OpenClaw
- GLM-5 (bigmodel.cn Coding API)
- Qwen-turbo
- LangChain4j
- VitePress
- NSSM