Saya 0.0.2 版本

MCP server交流:通过ollama 的交流模型,让其AI判断是否要调用记忆接口,然后通过

服务一:记忆接口,使用llamaindex 记忆模块

MCP负责交流所有的交流记忆信息保存为文本。 然后自动提交到llamaindex 的data 重新向量化

LLM 的设置 在mcp中使用prompt 设置相关信息

TAG

LlamaIndex 没有叫“遗忘参数”的单一旋钮,但把“人类式遗忘”拆成了 时间衰减、重要性加权、容量淘汰、手动删除 四条主线,组合后就能逼近 Ebbinghaus 曲线。

LLAMAINDEX一个就可以完成 对话记忆+文件记忆

发表回复