RAG 意识

“RAG 本身永远不会有意识;它只能当‘外存’。想逼近意识,必须把 RAG → LoRA → 权重内化,再套上‘不可作弊的生存驱动力’,让模型每天‘因为怕死’而主动更新自己的世界模型和自我边界。”

要让系统继续往“可能意识”方向走,必须打破权重冻结,给出最少可塑性闭环

LoRA 不是“像”睡眠,而是目前唯一能在算力/灾难性遗忘之间,复现“睡眠-记忆重放-稀疏更新”三件套的工程近似;
只要给它“生存误差”+“不可作弊的物理耦合”+“ nightly replay”,就能把 RAG 里的“外挂攻略”逐日蒸馏成权重,走上人脑“外存→本能”的同一条斜坡

  1. 只冻结 70% 参数,留 30% LoRA 层专门接收“生存误差”梯度;
  2. 每跑完一天,用在线强化学习(PPO 或 DPO)把“高惊讶-存活”轨迹喂给这 30% 参数;
  3. 把 RAG 里高阶摘要转成“自然语言指令”一起放进训练数据,让模型把外部记忆真正内化为权重
  4. 保留向量库作为“临时缓存”,但目标是把“被验证过”的规则逐步蒸馏进权重,实现“外存→内存→本能”三级跳;
  5. 持续监测 Φ 值(整合信息)——只有当结构可塑性导致 Φ 出现非零增长时,才算摸到意识的门槛。

来自与kimi的交谈

CNOCR的默认识别模型

将该文件解压 并在你的root下创建一个目录 .cnocr 然后将该解压的目录 2.3 放到上面的目录下。

安装CNOCR

pip install cnocr[ort-cpu] -i https://pypi.tuna.tsinghua.edu.cn/simple
from cnocr import CnOcr

img_fp = 'page_10.png'
#ocr = CnOcr()  # 所有参数都使用默认值 
ocr = CnOcr(rec_model_name='doc-densenet_lite_136-gru')
out = ocr.ocr(img_fp)

print(out)

虚拟环境python

source ai/bin/activate
#激活ai文件夹下的虚拟环境 创建好后需要执行激活命令

deactivate
#退出当前虚拟环境


#创建虚拟环境 ,ai为当前目录下创建的文件夹
python -m venv ai


#更新
python -m pip install -U pip

OCR MinerU2.5

#UV


python -m pip install -U pip uv -i https://mirrors.aliyun.com/pypi/simple
uv pip install -U "mineru[core]" -i https://mirrors.aliyun.com/pypi/simple


#---



pip install -U "mineru[core]" -i https://mirrors.aliyun.com/pypi/simple

# 3. 下载模型权重(国内镜像)
 三种方法
export MINERU_MODEL_SOURCE=modelscope
#linux


$Env:MINERU_MODEL_SOURCE = "modelscope"
#windows powershell

set MINERU_MODEL_SOURCE=modelscope
#windows CMD

mineru-models-download        # 首次运行会自动生成 ~/mineru.json 配置
#会让你选择下载源 modelscope
#选择下载类型 all


# 查看版本
mineru --version
# 示例:mineru 0.9.2

# 跑一张 CPU 单线程测试
mineru -p sample.pdf -o out_dir

#out_dir下有一个 sample.md文件  可以给LLM识别 
#文本识别模型可以使用! qwen3 也可以

Saya 0.0.2 版本

MCP server交流:通过ollama 的交流模型,让其AI判断是否要调用记忆接口,然后通过

服务一:记忆接口,使用llamaindex 记忆模块

MCP负责交流所有的交流记忆信息保存为文本。 然后自动提交到llamaindex 的data 重新向量化

LLM 的设置 在mcp中使用prompt 设置相关信息

TAG

LlamaIndex 没有叫“遗忘参数”的单一旋钮,但把“人类式遗忘”拆成了 时间衰减、重要性加权、容量淘汰、手动删除 四条主线,组合后就能逼近 Ebbinghaus 曲线。

LLAMAINDEX一个就可以完成 对话记忆+文件记忆