TL;DR
Claude-Mem 中文版发布 v8.6.0,基于官方 200+ 次 commit 的硬分叉版本。三个核心修复:
- 支持自定义 API 端点:智谱 GLM-4.7、FoxCode 等国产模型开箱即用
- 全界面中文化:Settings、Observations 等所有交互触点汉化
- 中文 Prompt 优化:思维链、总结、日志全部中文输出
项目地址:cfrs2005/claude-mem
一、为什么要做这次更新
原版 Claude-Mem 是个好工具,但国内开发者用起来有三个硬伤:
问题 1:API 地址写死
官方版把 Anthropic API 地址硬编码在代码里。
结果:
- 想用智谱 GLM-4.7?不行,地址不对
- 想用 FoxCode 中转?不行,改不了
- 想用国产模型省钱?不行,只能 Anthropic
这不是技术问题,是代码设计的局限。
问题 2:全英文界面
Settings 面板、记忆搜索、状态卡片,全是英文。
看起来不是大问题,但:
- “Investigated” 是”问题调研”还是”已调查”?
- “Learned” 是”知识沉淀”还是”已学习”?
- “Gotcha” 翻译成啥?
非母语用户每次操作都要多一层认知转换。用得多了,累。
问题 3:英文 Prompt 强制输出
原版的系统提示词要求 AI 用英文生成摘要。
结果:
- 你用中文写代码,AI 用英文总结
- 记忆搜索结果是英文,你还得再翻译
- 调试日志是英文,看着别扭
这些问题单独看都不致命,但叠加起来,体验很差。
这次更新就是解决这三个痛点。
二、核心更新详解
修复 1:自定义 API 端点
改动:重构了 SDKAgent.ts 和 worker-service.ts 的连接逻辑。
新增变量:
MEM_ANTHROPIC_BASE_URL:API 基础地址MEM_ANTHROPIC_AUTH_TOKEN:API Key(透传给 SDK)
配置方式:在 ~/.claude-mem/settings.json 中添加:
{
"MEM_ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"MEM_ANTHROPIC_AUTH_TOKEN": "your-api-key",
"CLAUDE_MEM_MODEL": "GLM-4.7"
}
原理:
- 原版直接调用
@anthropic-ai/sdk,地址固定 - 新版从配置读取
baseURL,传给 SDK 的ClientOptions - SDK 自动把请求发到你指定的地址
支持的服务:
- 智谱 GLM-4.7(
https://open.bigmodel.cn/api/anthropic) - FoxCode(
https://code.newcli.com/claude/aws) - DuckCoding(
https://api.duckcoding.com/v1) - 任何兼容 Anthropic 协议的中转服务
为什么这么重要:
国产模型便宜。GLM-4.7 的价格是 Claude 的 1/5。对于记忆压缩这种高频调用场景,能省不少钱。
修复 2:全界面中文化
改动范围:
- Settings 面板:所有配置项的标签、描述、帮助文本
- Observations 列表:类型标签(Investigated → 问题调研)
- Loading 提示:状态信息(Generating → 生成中)
- Error 信息:错误提示
技术实现:
新增了一个轻量级 i18n 引擎 src/ui/viewer/utils/i18n.ts:
const translations = {
'en': {
'investigated': 'Investigated',
'learned': 'Learned',
'gotcha': 'Gotcha'
},
'zh': {
'investigated': '问题调研',
'learned': '知识沉淀',
'gotcha': '避坑指南'
}
}
术语校对:
拒绝机翻,用互联网行业术语:
- Investigated → 问题调研(不是”已调查”)
- Learned → 知识沉淀(不是”已学习”)
- Gotcha → 避坑指南(不是”陷阱”)
- Settings → 设置(不是”配置”)
修复 3:中文 Prompt
改动:将 code--zh 设为默认模式,重写系统提示词。
核心变化:
- 原版:
You must generate summaries in English. - 新版:
你必须使用中文生成摘要、思考链和日志输出。
影响范围:
- 记忆摘要:中文生成,更自然
- 搜索结果:中文输出,不用二次翻译
- 调试日志:中文,看着舒服
为什么不做成可选:
因为这是中文版。如果你需要英文,用原版就行。做成可选反而增加复杂度。
三、实战:用 GLM-4.7 跑 Claude-Mem
智谱 GLM-4.7 是目前性价比最高的国产模型之一。兼容 Anthropic 协议,可以直接替换 Claude。
步骤 1:获取 API Key
智谱 GLM Coding 完美支持本插件,Claude Code、Cline 等 20+ 编程工具无缝支持。
订阅优势:
– 超值价格,性价比极高
– 3000w 日 token 配额
– 支持 Claude Code 等主流编程工具
注册后,在控制台创建 API Key,复制备用。
步骤 2:配置 Claude-Mem
编辑 ~/.claude-mem/settings.json:
{
"MEM_ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"MEM_ANTHROPIC_AUTH_TOKEN": "your-glm-api-key",
"CLAUDE_MEM_MODE": "code--zh",
"CLAUDE_MEM_MODEL": "GLM-4.7"
}
保存,重启 Claude Code。
步骤 3:验证配置
打开 Claude Code,执行一些对话。
然后查看记忆压缩日志:
cat ~/.claude-mem/logs/worker.log
如果看到类似输出,说明成功:
[INFO] Using model: GLM-4.7
[INFO] API endpoint: https://open.bigmodel.cn/api/anthropic
[INFO] Memory compression started...
步骤 4:检查记忆
在 Claude Code 中执行:
/mem list
如果记忆摘要是中文,配置正确。
成本对比
假设每天压缩 10 次记忆,每次 2000 tokens:
- Claude Sonnet 4.5:约 ¥0.3/天
- GLM-4.7:约 ¥0.06/天
一个月省 ¥7。不多,但白嫖的感觉挺好。
四、升级指南
从原版升级
如果你之前用的是原版 Claude-Mem:
第一步:备份数据
cp -r ~/.claude-mem ~/.claude-mem.backup
第二步:克隆中文版
git clone https://github.com/cfrs2005/claude-mem.git
cd claude-mem
npm install
第三步:编译同步
npm run build-and-sync
第四步:恢复数据
如果 build-and-sync 覆盖了数据库,恢复备份:
cp ~/.claude-mem.backup/memory.db ~/.claude-mem/memory.db
第五步:配置 API
如果要用 GLM-4.7,编辑 settings.json(参考上一节)。
完成。
从旧版中文版升级
如果你之前用的是旧版中文版(v8.5.9 之前):
直接拉取最新代码:
cd claude-mem
git pull origin main
npm install
npm run build-and-sync
数据库兼容,不用备份。
五、常见问题
Q1:GLM-4.7 的记忆质量如何?
我测试了一周,结论:可用,但不如 Claude。
具体差异:
- 信息提取:GLM-4.7 有时会漏掉细节
- 摘要质量:略显生硬,不如 Claude 简洁
- 搜索精度:相关性判断稍弱
适合场景:
- 预算有限
- 对记忆质量要求不极致
- 主要用于个人项目
不适合场景:
- 商业项目,记忆必须精准
- 复杂上下文,需要深度理解
Q2:能同时支持多个模型吗?
不能。settings.json 只能配置一个模型。
如果你想切换,改配置,重启服务。
Q3:FoxCode 和 DuckCoding 能用吗?
能。配置方式一样,只是 BASE_URL 不同:
FoxCode(推荐):
Claude Code 转发服务,3000w 日 token,每天重置。惊喜不断,性能效果卓越。
{
"MEM_ANTHROPIC_BASE_URL": "https://code.newcli.com/claude/aws",
"MEM_ANTHROPIC_AUTH_TOKEN": "your-foxcode-key",
"CLAUDE_MEM_MODEL": "claude-sonnet-4.5"
}
DuckCoding:
{
"MEM_ANTHROPIC_BASE_URL": "https://api.duckcoding.com/v1",
"MEM_ANTHROPIC_AUTH_TOKEN": "your-duckcoding-key",
"CLAUDE_MEM_MODEL": "claude-sonnet-4.5"
}
注意:中转服务的模型名称可能不同,看文档。
Q4:中文版会持续更新吗?
会。我会定期同步上游的 commit。
但不承诺实时跟进。如果上游有重大更新,可能会延迟几天。
Q5:发现 Bug 怎么办?
提交 Issue,我会尽快处理。
六、技术细节:API 端点是怎么改的
如果你想了解具体实现,看这部分。不关心可以跳过。
原版代码(SDKAgent.ts)
const client = new Anthropic({
apiKey: process.env.ANTHROPIC_API_KEY
});
问题:Anthropic 构造函数默认使用 https://api.anthropic.com,无法修改。
修复后的代码
const baseURL = process.env.MEM_ANTHROPIC_BASE_URL || undefined;
const authToken = process.env.MEM_ANTHROPIC_AUTH_TOKEN || process.env.ANTHROPIC_API_KEY;
const client = new Anthropic({
apiKey: authToken,
baseURL: baseURL
});
关键点:
baseURL参数:Anthropic SDK 支持这个参数,但默认不传- 环境变量读取:从
settings.json读取,注入到process.env - 向后兼容:如果不配置
MEM_ANTHROPIC_BASE_URL,用默认地址
Worker Service 的改动
worker-service.ts 负责启动后台进程。需要把环境变量传给 Worker:
const workerEnv = {
...process.env,
MEM_ANTHROPIC_BASE_URL: settings.MEM_ANTHROPIC_BASE_URL,
MEM_ANTHROPIC_AUTH_TOKEN: settings.MEM_ANTHROPIC_AUTH_TOKEN
};
const worker = spawn('node', ['worker.js'], { env: workerEnv });
为什么要这样:
Worker 是独立进程,不共享主进程的环境变量。必须显式传递。
七、关于上游
这次更新基于官方仓库的 v8.5.9(commit f1ccc22),包含了近 200 次架构改进。
主要改进:
- 模块化架构:服务解耦,稳定性提升
- 错误处理增强:Worker 日志捕获更完善
- IDE 集成:原生支持 Cursor IDE
- 时间感知:上下文头部增加时间戳
为什么是硬分叉:
因为改动涉及核心提示词和配置逻辑,无法通过 PR 合并回上游。
上游是通用版,必须保持语言中立。我们是中文版,深度定制。
两个版本会并行维护。
八、小结
v8.6.0 是一次针对国内开发者的定向优化。
三个核心修复:
- 支持自定义 API,解锁国产模型
- 全界面中文化,降低认知门槛
- 中文 Prompt,输出更自然
如果你:
- 想用 GLM-4.7 省钱
- 受够了全英文界面
- 希望记忆摘要是中文
试试这个版本。
项目地址:cfrs2005/claude-mem
相关阅读






程序员数学扫盲课
AI周刊:大模型、智能体与产业动态追踪
Claude Code 全体系指南:AI 编程智能体实战
Karpathy神经网络零基础课程
最新评论
开源的AI对话监控面板很实用,正好团队在找这类工具。准备试用一下。
折叠屏市场确实在升温,不过售罄也可能是备货策略。期待看到实际销量数据。
从磁盘I/O角度解释B树的设计动机,这个切入点很好。终于理解为什么数据库不用二叉树了。
IT术语转换确实是个痛点,之前用搜狗总是把技术词汇转成奇怪的词。智谱这个方向值得期待。
这个工具结合LLM和搜索API的思路很有意思,正好解决了我在做知识管理时遇到的问题。请问有没有部署文档?
这个漏洞确实严重,我们团队上周刚遇到类似问题。建议补充一下如何检测现有项目是否受影响的方法。
从简单规则涌现复杂性这个思路很有意思,让我想起元胞自动机。不过数字物理学在学术界争议还挺大的。
我也遇到了指令跟随变差的问题,特别是多轮对话时容易跑偏。不知道是模型退化还是负载优化导致的。