AI编程 · 架构思考 · 技术人生

Claude-Mem v8.6.0:解锁国产模型,告别 API 束缚

智谱 GLM,支持多语言、多任务推理。从写作到代码生成,从搜索到知识问答,AI 生产力的中国解法。

TL;DR

Claude-Mem 中文版发布 v8.6.0,基于官方 200+ 次 commit 的硬分叉版本。三个核心修复:

  1. 支持自定义 API 端点:智谱 GLM-4.7、FoxCode 等国产模型开箱即用
  2. 全界面中文化:Settings、Observations 等所有交互触点汉化
  3. 中文 Prompt 优化:思维链、总结、日志全部中文输出

项目地址cfrs2005/claude-mem


一、为什么要做这次更新

原版 Claude-Mem 是个好工具,但国内开发者用起来有三个硬伤:

问题 1:API 地址写死

官方版把 Anthropic API 地址硬编码在代码里。

结果:

  • 想用智谱 GLM-4.7?不行,地址不对
  • 想用 FoxCode 中转?不行,改不了
  • 想用国产模型省钱?不行,只能 Anthropic

这不是技术问题,是代码设计的局限。

问题 2:全英文界面

Settings 面板、记忆搜索、状态卡片,全是英文。

看起来不是大问题,但:

  • “Investigated” 是”问题调研”还是”已调查”?
  • “Learned” 是”知识沉淀”还是”已学习”?
  • “Gotcha” 翻译成啥?

非母语用户每次操作都要多一层认知转换。用得多了,累。

问题 3:英文 Prompt 强制输出

原版的系统提示词要求 AI 用英文生成摘要。

结果:

  • 你用中文写代码,AI 用英文总结
  • 记忆搜索结果是英文,你还得再翻译
  • 调试日志是英文,看着别扭

这些问题单独看都不致命,但叠加起来,体验很差。

这次更新就是解决这三个痛点。


二、核心更新详解

修复 1:自定义 API 端点

改动:重构了 SDKAgent.tsworker-service.ts 的连接逻辑。

新增变量

  • MEM_ANTHROPIC_BASE_URL:API 基础地址
  • MEM_ANTHROPIC_AUTH_TOKEN:API Key(透传给 SDK)

配置方式:在 ~/.claude-mem/settings.json 中添加:

{
  "MEM_ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
  "MEM_ANTHROPIC_AUTH_TOKEN": "your-api-key",
  "CLAUDE_MEM_MODEL": "GLM-4.7"
}

原理

  • 原版直接调用 @anthropic-ai/sdk,地址固定
  • 新版从配置读取 baseURL,传给 SDK 的 ClientOptions
  • SDK 自动把请求发到你指定的地址

支持的服务

  • 智谱 GLM-4.7(https://open.bigmodel.cn/api/anthropic
  • FoxCode(https://code.newcli.com/claude/aws
  • DuckCoding(https://api.duckcoding.com/v1
  • 任何兼容 Anthropic 协议的中转服务

为什么这么重要

国产模型便宜。GLM-4.7 的价格是 Claude 的 1/5。对于记忆压缩这种高频调用场景,能省不少钱。

修复 2:全界面中文化

改动范围

  • Settings 面板:所有配置项的标签、描述、帮助文本
  • Observations 列表:类型标签(Investigated → 问题调研)
  • Loading 提示:状态信息(Generating → 生成中)
  • Error 信息:错误提示

技术实现

新增了一个轻量级 i18n 引擎 src/ui/viewer/utils/i18n.ts

const translations = {
  'en': {
    'investigated': 'Investigated',
    'learned': 'Learned',
    'gotcha': 'Gotcha'
  },
  'zh': {
    'investigated': '问题调研',
    'learned': '知识沉淀',
    'gotcha': '避坑指南'
  }
}

术语校对

拒绝机翻,用互联网行业术语:

  • Investigated → 问题调研(不是”已调查”)
  • Learned → 知识沉淀(不是”已学习”)
  • Gotcha → 避坑指南(不是”陷阱”)
  • Settings → 设置(不是”配置”)

修复 3:中文 Prompt

改动:将 code--zh 设为默认模式,重写系统提示词。

核心变化

  • 原版:You must generate summaries in English.
  • 新版:你必须使用中文生成摘要、思考链和日志输出。

影响范围

  • 记忆摘要:中文生成,更自然
  • 搜索结果:中文输出,不用二次翻译
  • 调试日志:中文,看着舒服

为什么不做成可选

因为这是中文版。如果你需要英文,用原版就行。做成可选反而增加复杂度。


三、实战:用 GLM-4.7 跑 Claude-Mem

智谱 GLM-4.7 是目前性价比最高的国产模型之一。兼容 Anthropic 协议,可以直接替换 Claude。

步骤 1:获取 API Key

智谱 GLM Coding 完美支持本插件,Claude Code、Cline 等 20+ 编程工具无缝支持。

订阅优势
– 超值价格,性价比极高
– 3000w 日 token 配额
– 支持 Claude Code 等主流编程工具

👉 立即开拼,享限时惊喜价!

注册后,在控制台创建 API Key,复制备用。

步骤 2:配置 Claude-Mem

编辑 ~/.claude-mem/settings.json

{
  "MEM_ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
  "MEM_ANTHROPIC_AUTH_TOKEN": "your-glm-api-key",
  "CLAUDE_MEM_MODE": "code--zh",
  "CLAUDE_MEM_MODEL": "GLM-4.7"
}

保存,重启 Claude Code。

步骤 3:验证配置

打开 Claude Code,执行一些对话。

然后查看记忆压缩日志:

cat ~/.claude-mem/logs/worker.log

如果看到类似输出,说明成功:

[INFO] Using model: GLM-4.7
[INFO] API endpoint: https://open.bigmodel.cn/api/anthropic
[INFO] Memory compression started...

步骤 4:检查记忆

在 Claude Code 中执行:

/mem list

如果记忆摘要是中文,配置正确。

成本对比

假设每天压缩 10 次记忆,每次 2000 tokens:

  • Claude Sonnet 4.5:约 ¥0.3/天
  • GLM-4.7:约 ¥0.06/天

一个月省 ¥7。不多,但白嫖的感觉挺好。


四、升级指南

从原版升级

如果你之前用的是原版 Claude-Mem:

第一步:备份数据

cp -r ~/.claude-mem ~/.claude-mem.backup

第二步:克隆中文版

git clone https://github.com/cfrs2005/claude-mem.git
cd claude-mem
npm install

第三步:编译同步

npm run build-and-sync

第四步:恢复数据

如果 build-and-sync 覆盖了数据库,恢复备份:

cp ~/.claude-mem.backup/memory.db ~/.claude-mem/memory.db

第五步:配置 API

如果要用 GLM-4.7,编辑 settings.json(参考上一节)。

完成。

从旧版中文版升级

如果你之前用的是旧版中文版(v8.5.9 之前):

直接拉取最新代码

cd claude-mem
git pull origin main
npm install
npm run build-and-sync

数据库兼容,不用备份。


五、常见问题

Q1:GLM-4.7 的记忆质量如何?

我测试了一周,结论:可用,但不如 Claude

具体差异:

  • 信息提取:GLM-4.7 有时会漏掉细节
  • 摘要质量:略显生硬,不如 Claude 简洁
  • 搜索精度:相关性判断稍弱

适合场景

  • 预算有限
  • 对记忆质量要求不极致
  • 主要用于个人项目

不适合场景

  • 商业项目,记忆必须精准
  • 复杂上下文,需要深度理解

Q2:能同时支持多个模型吗?

不能。settings.json 只能配置一个模型。

如果你想切换,改配置,重启服务。

Q3:FoxCode 和 DuckCoding 能用吗?

能。配置方式一样,只是 BASE_URL 不同:

FoxCode(推荐):

Claude Code 转发服务,3000w 日 token,每天重置。惊喜不断,性能效果卓越。

👉 立即注册 FoxCode

{
  "MEM_ANTHROPIC_BASE_URL": "https://code.newcli.com/claude/aws",
  "MEM_ANTHROPIC_AUTH_TOKEN": "your-foxcode-key",
  "CLAUDE_MEM_MODEL": "claude-sonnet-4.5"
}

DuckCoding

{
  "MEM_ANTHROPIC_BASE_URL": "https://api.duckcoding.com/v1",
  "MEM_ANTHROPIC_AUTH_TOKEN": "your-duckcoding-key",
  "CLAUDE_MEM_MODEL": "claude-sonnet-4.5"
}

注意:中转服务的模型名称可能不同,看文档。

Q4:中文版会持续更新吗?

会。我会定期同步上游的 commit。

但不承诺实时跟进。如果上游有重大更新,可能会延迟几天。

Q5:发现 Bug 怎么办?

提交 Issue,我会尽快处理。


六、技术细节:API 端点是怎么改的

如果你想了解具体实现,看这部分。不关心可以跳过。

原版代码(SDKAgent.ts)

const client = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY
});

问题:Anthropic 构造函数默认使用 https://api.anthropic.com,无法修改。

修复后的代码

const baseURL = process.env.MEM_ANTHROPIC_BASE_URL || undefined;
const authToken = process.env.MEM_ANTHROPIC_AUTH_TOKEN || process.env.ANTHROPIC_API_KEY;

const client = new Anthropic({
  apiKey: authToken,
  baseURL: baseURL
});

关键点

  • baseURL 参数:Anthropic SDK 支持这个参数,但默认不传
  • 环境变量读取:从 settings.json 读取,注入到 process.env
  • 向后兼容:如果不配置 MEM_ANTHROPIC_BASE_URL,用默认地址

Worker Service 的改动

worker-service.ts 负责启动后台进程。需要把环境变量传给 Worker:

const workerEnv = {
  ...process.env,
  MEM_ANTHROPIC_BASE_URL: settings.MEM_ANTHROPIC_BASE_URL,
  MEM_ANTHROPIC_AUTH_TOKEN: settings.MEM_ANTHROPIC_AUTH_TOKEN
};

const worker = spawn('node', ['worker.js'], { env: workerEnv });

为什么要这样

Worker 是独立进程,不共享主进程的环境变量。必须显式传递。


七、关于上游

这次更新基于官方仓库的 v8.5.9(commit f1ccc22),包含了近 200 次架构改进。

主要改进

  • 模块化架构:服务解耦,稳定性提升
  • 错误处理增强:Worker 日志捕获更完善
  • IDE 集成:原生支持 Cursor IDE
  • 时间感知:上下文头部增加时间戳

为什么是硬分叉

因为改动涉及核心提示词和配置逻辑,无法通过 PR 合并回上游。

上游是通用版,必须保持语言中立。我们是中文版,深度定制。

两个版本会并行维护。


八、小结

v8.6.0 是一次针对国内开发者的定向优化。

三个核心修复:

  1. 支持自定义 API,解锁国产模型
  2. 全界面中文化,降低认知门槛
  3. 中文 Prompt,输出更自然

如果你:

  • 想用 GLM-4.7 省钱
  • 受够了全英文界面
  • 希望记忆摘要是中文

试试这个版本。

项目地址cfrs2005/claude-mem


相关阅读

赞(0)
未经允许不得转载:Toy's Tech Notes » Claude-Mem v8.6.0:解锁国产模型,告别 API 束缚
免费、开放、可编程的智能路由方案,让你的服务随时随地在线。

评论 抢沙发

十年稳如初 — LocVPS,用时间证明实力

10+ 年老牌云主机服务商,全球机房覆盖,性能稳定、价格厚道。

老品牌,更懂稳定的价值你的第一台云服务器,从 LocVPS 开始