目 录CONTENT

文章目录

Hindsight让AI真正记住而不是假装记住

过客
2026-05-15 / 0 评论 / 1 点赞 / 3 阅读 / 0 字

用 AI 助手最烦的事,就是它突然失忆

有没有遇到过这样的问题,让它改一个项目,它自己在改,你去做了个饭吃完回来,它改好了,你高高兴兴的让他提交SVN(自己的项目喜欢用SVN做版本管理),结果他问你SVN认证失败。明明让它永久记住账号密码了,结果一次又一次的给你忘记。

这真不是它故意气你。传统 RAG 就是把聊天记录切成碎片,再靠向量相似度去捞,捞着捞着就丢了因果、断了时间线,上下文一长直接抓瞎。

用了大半个月的 Hindsight 后,我觉得终于能好好跟 AI 聊天了。

Hindsight 是什么?

Hindsight 是 Vectorize 推出的开源 Agent 记忆系统,核心目标是让 AI 代理(Agent)真正学会并长期记忆,而不仅仅是“记住对话历史”。

  • LongMemEval 长程记忆基准上达到 91.4% 准确率(使用 Gemini 3 Pro 时),由 Virginia Tech 和《华盛顿邮报》参与验证,是当前 SOTA 之一。
  • 也在 BEAM 等超长上下文(百万到千万 token)基准上领先。
  • 开源(MIT 协议),支持本地部署和云服务。

技术架构(人类记忆式设计)

它把记忆分成​四个逻辑网络​(或称三层结构,表述略有差异):

  • ​**World(世界事实)**​:客观、外部的硬知识,不依赖个人经历。
  • ​**Experiences / Observations(经历 / 观察)**​:带时间戳的具体事件和代理自身的经历。
  • ​**Mental Models / Opinions(心理模型 / 观点)**​:从经历中提炼出的规律、信念和总结,会随新证据更新。

支持 ​**retain(存)​、​recall(取)**​、reflect(反思) 三个核心操作。

检索方式是​四路并行​:语义检索 + 关键词 + 图关系 + 时间线,确保在长上下文和复杂推理场景下表现更好。

安装超级简单

本地使用 Docker 部署:

    1. 使用本地 嵌入/重排序 模型,大语言模型使用官方OpenAI
docker run -d --name hindsight --restart unless-stopped \ 
	-p 8888:8888 -p 9999:9999 \ 
    -e HINDSIGHT_API_LLM_API_KEY='你的API Key' \
    -v ~/.hindsight-docker:/home/hindsight/.pg0 \ 
    ghcr.io/vectorize-io/hindsight:latest
    1. 使用本地 嵌入/重排 模型,大语言模型使用自定义OpenAI兼容模型
docker run -d --name hindsight --restart unless-stopped \ 
	-p 8888:8888 -p 9999:9999 \ 
	-e HINDSIGHT_API_LLM_PROVIDER=openai \
    -e HINDSIGHT_API_LLM_API_KEY='你的API Key' \ 
    -e HINDSIGHT_API_LLM_BASE_URL='自定义大语言模型接口地址' \ 
    -e HINDSIGHT_API_LLM_MODEL='模型ID' \
    -v ~/.hindsight-docker:/home/hindsight/.pg0 \ 
    ghcr.io/vectorize-io/hindsight:latest
    1. 嵌入、重排、大语言模型 都使用自定义的
docker run -d --name hindsight --restart unless-stopped \ 
	-p 8888:8888 -p 9999:9999 \ 
	-e HINDSIGHT_API_LLM_PROVIDER=openai \ 
	-e HINDSIGHT_API_LLM_API_KEY='你的大语言模型API Key' \ 
	-e HINDSIGHT_API_LLM_BASE_URL='自定义大语言模型接口地址' \ 
	-e HINDSIGHT_API_LLM_MODEL='大语言模型ID' \ 
	-e HINDSIGHT_API_EMBEDDINGS_PROVIDER=openai \ 
	-e HINDSIGHT_API_EMBEDDINGS_OPENAI_MODEL='嵌入模型ID(如:bge-m3)' \ 
	-e HINDSIGHT_API_EMBEDDINGS_OPENAI_API_KEY='嵌入模型API Key' \ 
	-e HINDSIGHT_API_EMBEDDINGS_OPENAI_BASE_URL='嵌入模型地址' \
	-e HINDSIGHT_API_RERANKER_PROVIDER=siliconflow \ 
	-e HINDSIGHT_API_RERANKER_SILICONFLOW_MODEL='重排序模型ID(如:bge-reranker-v2-m3)' \ 
	-e HINDSIGHT_API_RERANKER_SILICONFLOW_BASE_URL='重排序模型地址' \ 
	-e HINDSIGHT_API_RERANKER_SILICONFLOW_API_KEY='重排序模型API key' \ 
	-v ~/.hindsight-docker:/home/hindsight/.pg0 \ 
	ghcr.io/vectorize-io/hindsight:latest

启动后,API 在 http://localhost:8888,管理界面在 http://localhost:9999。

g

注:如果要用外部PostgreSQL

# 删除这行 
-v ~/.hindsight-docker:/home/hindsight/.pg0 \ 

# 修改为  
-e HINDSIGHT_POSTGRES_URL='postgresql://user:password@ip:5432/hindsight' \

AI Agent集成

    1. OpenClaw 集成

安装插件:

openclaw plugins install @vectorize-io/hindsight-openclaw

配置:

{ 
	"plugins": { 
		"entries": { 
			"hindsight-openclaw": { 
				"enabled": true, 
				"config": { 
					"hindsightApiUrl": "http://ip:8888", 
					"bankId": "openclaw", 
					"dynamicBankId": false  # 这个配置共用同一bank id
				}
			} 
		} 
	} 
}
    1. Hermes 集成
      hermes 默认集成,只要配置memory重启就可以了。
memory: 
	provider: hindsight 
	mode: local_external 
	api_url: http://localhost:8888 
	bank_id: hermes 
	auto_recall: true 
	auto_retain: true 
	memory_mode: hybrid

实际用下来什么感觉?

装好之后,至少SVN帐号密码从来没忘记过了哈。

还有其他的几个我最常用的场景:

日常助手 切换会话不再害怕,它会自动去 Hindsight 里查。“接着上次那个xxx项目继续”——它立刻就能接上进度。

技术调研 以前新开一个会话就要重新讲背景,现在它自己记得之前分析过的技术、踩过的坑、最终结论,直接接着往下聊。

插件里几个值得注意的细节

  • Session Pattern 过滤​:不是所有内容都往记忆里塞。它会自动过滤系统日志和工具输出,只保留有价值的部分。
  • Retain Queue 机制​:记忆不是一条一条存,而是批量处理后打包提交,节省资源。
  • 多 Bank 隔离​:支持多个独立的记忆库,切换 Bank ID 就能隔离不同场景或用户。
  • 版本兼容​:0.5.0+ 新增 update_mode: 'append',老版本会 fallback 到不同 document id,避免覆盖历史记忆。

最后

Hindsight 解决的不是“AI 记不住”,而是“AI 记了也不会用”的问题。

三层记忆结构、四路并行检索、强时序和因果能力,这才像一个靠谱的长程记忆系统。

如果你每天用 AI 超过半小时,强烈建议试试。两条命令就能跑起来,效果自己上手就知道。

1
  1. 支付宝打赏

    qrcode alipay
  2. 微信打赏

    qrcode weixin

评论区