MCP server交流:通过ollama 的交流模型,让其AI判断是否要调用记忆接口,然后通过
服务一:记忆接口,使用llamaindex 记忆模块
MCP负责交流所有的交流记忆信息保存为文本。 然后自动提交到llamaindex 的data 重新向量化
LLM 的设置 在mcp中使用prompt 设置相关信息
TAG
LlamaIndex 没有叫“遗忘参数”的单一旋钮,但把“人类式遗忘”拆成了 时间衰减、重要性加权、容量淘汰、手动删除 四条主线,组合后就能逼近 Ebbinghaus 曲线。