
开源AI记忆系统MemPalace采用记忆宫殿法,LongMemEval得分96.6%,支持本地运行、MCP接入,年成本仅10美元
MemPalace 是一个开源的 AI 记忆系统,灵感来自古希腊的"记忆宫殿法"。它能让 AI 像"在房间里行走,推开一扇扇门"一样组织和检索记忆,而不是传统的向量数据库方案。
这个项目发布即开源,所有数据本地存储,在 LongMemEval 基准测试(RAW 模式)中拿到 96.6% 的史上最高分,GitHub star 已经突破 17k。
当前 AI 记忆方案的核心矛盾是:记忆越多,成本越高,检索越不准。
传统方案要么把所有对话切片做 Embedding 召回(检索不准),要么做总结压缩(丢失信息)。而 MemPalace 把记忆变成了一个可导航的空间结构,用"空间位置"来组织记忆。
MemPalace 的记忆组织方式像一座建筑:
每多一层结构,就缩小一次搜索空间并增强一次语义约束。实测中,这种分层结构相比全局乱搜,检索效率提高了约 34%。
![]()
MemPalace 设计了一套记忆堆栈,按重要程度分级加载:
| 层级 | 内容 | Token 消耗 | 加载时机 |
|---|---|---|---|
| L0+L1 | 核心上下文 | 约 170 tokens | 每次对话始终加载 |
| L2 | 房间级召回 | 按需 | 局部补充 |
| L3 | 全局深度搜索 | 按需 | 深度检索 |
逻辑很简单:先用最小成本理解你,不够再局部补充,还不够才全局搜索。
实际效果:对 6 个月、约 1950 万 tokens 的对话数据,MemPalace 平时仅需加载约 170 个 tokens,按需加载也才 13,500 个 tokens。相比传统总结压缩方案(年成本约 507 美元),MemPalace 的年成本仅约 10 美元。
| 测试 | 得分 | 说明 |
|---|---|---|
| LongMemEval (RAW) | 96.6% | 公开可查史上最高分 |
| ConvoMem | 92.9% | 侧重短期记忆 |
| LoCoMo | 100% | 侧重几个月超长记忆 |
pip install mempalacemempalace init ~/projects/myapp这会创建一个存放所有记忆数据的主目录。
根据数据类型,有三种模式:
挖掘项目文件(适用于代码、文档和笔记):
mempalace mine ~/projects/myapp挖掘对话记录(适用于 Claude、ChatGPT、Slack 导出的聊天记录):
mempalace mine ~/chats/ --mode convos通用挖掘(自动将内容分类为决策、里程碑、问题等):
mempalace mine ~/chats/ --mode convos --extract general自动模式(适用于支持 MCP 工具调用的 AI,如 Claude):
claude mcp add mempalace -- python -m mempalace.mcp_server连接完成后,AI 会自动调用 MemPalace 的检索工具。
手动模式(适用于本地模型):
加载基础记忆(170 tokens):
mempalace wake-up > context.txt按需检索:
mempalace search "auth decisions" > results.txt也可以通过 Python API 直接调用:
from mempalace.searcher import search_memories
results = search_memories("auth decisions", palace_path="~/.mempalace/palace")![]()
fact_checker.py 工具,自动做记忆一致性校验
飞书、钉钉、企业微信相继推出命令行工具,Karpathy强推CLI复兴趋势,本文教你如何用CLI让AI Agent直接操作企业软件。

Anthropic 推出 Managed Agents,企业提供需求即可在云端运行 AI 智能体,基础设施全包按用量收费,0.08美元/会话小时

拆解 Claude Code、Codex CLI 等 AI 编程智能体的核心架构,涵盖代码仓库上下文、提示词缓存、工具调用、上下文瘦身、会话记忆和子智能体委派。