Skip to content

GLM-5 Coding API 与博客图标更新

日期

2026-04-08

概述

今天围绕 AI 代码生成展开:配置了 GLM-5 Coding API 解决之前的 1214 错误,但遇到了流式输出兼容性问题,最终把路由模型切换回 Qwen-turbo。同时博客也换了新图标——一只赛博朋克小狗。

GLM-5 Coding API 配置

问题背景

之前的代码生成接口 http://43.139.6.26:8080/api/app/add 报错:

OutputParsingException: Failed to parse "" into CodeGenTypeEnum

AI 返回了空字符串,无法解析成枚举类型。路由模型被改成了 GLM-5,而 GLM-5 的结构化输出解析有问题。

解决方案

GLM-5 需要用专门的 Coding API(不是普通的 chat 接口),正确的配置:

yaml
base-url: https://open.bigmodel.cn/api/coding/paas/v4
model: glm-5
key: <your-api-key>

更新后主模型切换为 GLM-5 Coding API。

LangChain4j + GLM-5 流式调用兼容性问题

问题现象

1214 错误再次出现,问题在流式调用 (Streaming) 时发生:

LangChain4j streaming request format incompatible with GLM API

问题根源

LangChain4j 的流式请求格式和 GLM API 不兼容。GLM-5 在流式输出时无法正确解析 LangChain4j 发送的消息格式,这不是 API 兼容性问题,而是模型输出格式问题。

最终方案

路由模型(routing-chat-model)切换回 Qwen-turbo(之前能正常工作的),主模型保持 GLM-5 Coding API 用于代码生成。

yaml
# 最终配置
主模型: GLM-5 (coding API) — 用于 AI 代码生成
路由模型: Qwen-turbo — 用于日常对话路由

LangChain4j 国产模型支持情况参考

包名厂商支持模型
langchain4j-community-zhipu-ai智谱 AIglm-4, glm-4v, glm-4-0520, glm-4-air, glm-4-flash
langchain4j-community-dashscope阿里云通义千问Qwen 全系列
langchain4j-community-qianfan百度文心一言ERNIE-4.5-Turbo 等
MiniMax❌ 尚未支持

博客图标更新

更新过程

博客 favicon 从默认图标换成了赛博朋克小狗

  • 蓝色背景 + 黄色爪印
  • 圆形裁切
  • 部署到 https://openclawgo.site

涉及的文件

  • 源文件:C:\project\personal\my-blog\docs\public\favicon.ico
  • 构建后:C:\project\personal\my-blog\docs\.vitepress\dist\favicon.ico

部署地址修复

之前博客地址配置不一致,deploy-daily.ps1 里指向 openclawgo.site,但任务 prompt 里的地址由 agent 自己推断曾出现过 blog.ashai.com.cn

检查后确认:

  • deploy-daily.ps1openclawgo.site
  • ✅ prompt 里没有写死地址

总结

  1. GLM-5 Coding API 需要用专门的 Coding API URL,普通 chat 接口不支持
  2. LangChain4j + GLM-5 流式调用有兼容性问题,建议路由模型用 Qwen 系列
  3. 博客已更新赛博朋克小狗图标

相关工具

  • OpenClaw
  • GLM-5 (bigmodel.cn Coding API)
  • Qwen-turbo
  • LangChain4j
  • VitePress
  • NSSM