# ollama_vl.py
import ollama
def qwen3_vl_chat(image_path: str, prompt: str) -> None:
"""
调用本地 Ollama 服务,使用 qwen3-vl:2b 做视觉问答。
参数:
image_path: 本地图片路径
prompt : 提问文本
打印:
模型回复字符串
"""
with open(image_path, "rb") as f:
img_bytes = f.read()
response = ollama.generate(
model="qwen3-vl:2b-instruct",
prompt=prompt,
format='json',
images=[img_bytes], # ollama 库直接支持 bytes 列表
stream=False,
options={
"temperature": 0, # 最 deterministic
"top_p": 0.5, # 可再收紧,也可保留默认
"top_k": 20, # 默认即可
"num_predict": 2048 # 按需限制最大 token 数,防瞎飘
}
)
print(response["response"])
# 简单自测
if __name__ == "__main__":
qwen3_vl_chat("a.png", "请描述这张图片里有什么")
分类目录归档:None
系统规划师论文相关
一、信息系统规划
1. 信息系统规划的内容
- 信息系统发展战略系统框架
- 组织体系
- 技术体系
- 任务体系
- 资源体系
- 保障体系
2. 信息系统规划工作要点
- 内外部需求挖掘
- 场景化模型分析
- 深度诊断与评估
- 整体与专项规划
- 持续改进
3. 信息系统规划常用方法
- 战略目标集转移法(SST):将组织战略目标转化为信息系统战略
- 企业信息系统规划法(BSP):通过定义管理目标、功能、数据类和信息结构来规划
- 关键成功因素法(CSF):识别组织关键成功因素及其绩效指标
- 价值链分析法(VCA):分析价值链关键环节,明确IT支持点
- Zachman框架:从愿景、现状、目标架构、差距分析、实施计划到持续优化
二、应用系统规划
1. 应用系统规划设计的内容
- 生命周期选择
- 体系结构定义
- 接口定义
- 数据定义
- 构件定义
2. 应用系统规划的主要过程
- 初步调研
- 可行性研究
- 详细调研
- 系统分析
- 系统设计
3. 应用系统规划设计的方法
- 应用系统组合法(APA):通过应用系统清单、评估、分析、优化策略、实施和监测
- TOGAF:开放组架构框架方法论
- 面向服务的架构(SOA):基于服务的架构设计方法
三、云资源规划
1. 云资源规划的基本流程
- 需求收集
- 资源评估和规划
- 预算管理
- 设计与实施
- 持续优化
2. 计算资源的规划范围
包括需求分析、容量规划、云服务选择、虚拟化策略、安全性考虑、成本效益分析、持续监控和维护
3. 计算资源规划的关键步骤
- 需求分析
- 容量规划
- 云服务选择
- 虚拟化策略
- 安全性考虑
- 成本效益分析
- 持续监控和维护
4. 存储资源的规划范围
包括存储类型选择、容量规划、数据备份和冗余、性能优化、数据安全和隔离、存储管理和调度
5. 存储资源规划的一般步骤
- 收集需求
- 分析和评估存储需求
- 技术选择
- 安全规划
- 容量规划
- 性能优化
- 管理和监控
- 定期评估和调整
四、网络环境规划
1. 网络拓扑
- 广域网:核心层、汇聚层、接入层三层结构
- 局域网:星型、环型、总线型等拓扑结构
2. 广域网架构
- 建设背景、需求分析、项目预算、技术方向、网络拓扑结构设计、IP地址等逻辑资源规划
3. 局域网的架构
重点关注:建设背景、需求分析、项目预算、技术方向、网络拓扑结构设计、IP地址规划、网络安全设计、网管和运维功能设计、机房环境设计、综合布线设计
4. VLan的划分方式
- 按端口划分
- 按MAC地址划分
- 基于网络层协议划分
- 根据IP组播划分
- 按策略划分
- 按用户定义/非用户授权划分
5. 无线局域网涉及的技术
- 短距离:Wi-Fi、蓝牙、ZigBee
- 广域无线:NB-IoT、蜂窝通信技术
- 规划内容:无线频率、覆盖范围、容量、基站站址、组网规划
五、数据资源规划
1. 数据规划的方法
- 基于稳定信息过程:定义职能域→业务分析→数据分析→建立标准→构建功能/数据/关联模型
- 基于稳定信息结构:确定目标→获取初始数据集→建立核心数据集→完善目标数据集→建立信息模型
- 基于指标能力:决策评估收集→支撑指标分析→指标体系构建→建立数据模型→数据子集融合→一致性检验→评价
2. 基于稳定信息过程的核心步骤
- 定义职能域
- 各职能域业务分析
- 各职能域数据分析
- 建立领域的数据资源管理基础标准
- 建立信息系统功能模型
- 建立信息系统数据模型
- 建立关联模型
3. 基于稳定信息结构的步骤
- 确定目标与系统边界
- 获取初始数据集
- 建立核心数据集
- 完善目标数据集
- 建立信息模型
4. 基于指标能力的步骤
- 决策评估收集
- 支撑指标分析
- 指标体系构建
- 建立指标数据模型、分析数据集
- 数据子集融合
- 核心数据集的一致性检验
- 核心数据集评价
5. 数据质量活动
- 定义高质量数据
- 定义数据质量战略
- 识别关键数据和业务规则
- 执行初始数据质量评估
- 识别改进方向并确定优先排序
- 定义数据质量改进目标
- 开发和部署数据质量操作
6. 数据安全活动
- 识别数据安全需求
- 制定数据安全制度
- 定义数据安全细则
- 评估当前安全风险
- 实施控制和规程
六、信息安全规划
1. 主要内容
- 关注利益相关方的安全诉求
- 信息安全组织体系规划
- 信息安全管理体系规划
- 信息安全技术体系规划
- 信息安全运营体系规划
七、云原生系统规划
1. 云原生架构规划实施路线图
- 微服务采用及运行环境容器云平台构建
- 服务管理和治理
- 持续交付及安全
- 自服务敏捷响应基础设施
- 增强生产环境韧性和安全性
2. 云原生技术架构
- 服务化架构
- Mesh化架构
- Serverless
- 存储计算分离
- 分布式事务
- 可观测架构(Logging、Tracing、Metrics)
- 事件驱动架构
八、信息系统服务管理
1. 规划设计(四要素)
- 人员:岗位和职责、绩效、培训
- 资源:服务工具、服务台、备件库、知识库
- 技术:技术研发、发现问题的技术、解决问题的技术
- 过程:服务级别、报告、事件、问题、配置、变更、发布、信息安全管理
2. 业务关系管理
- 客户关系:定期沟通、日常沟通、高层拜访、投诉管理、表扬管理、满意度调查、增值服务
- 供应商关系:选择/推荐、审核管理、协调、争议处理、支持合同管理
- 第三方关系:定期沟通、信息收集分享、关系协调、配合支持工作
3. 服务营销
- 启动阶段:营销准备、营销计划
- 调研交流:需求调研、解决方案
- 能力展示:产品展示、持续沟通
- 服务达成:达成服务协议、持续服务
4. 服务成本
- 预算:识别收支项、划分执行阶段、形成预算表
- 核算:掌握收支盈亏、调整资源分配、寻找改进方法、提高预算准确性
- 结算:项目投入产出比、投资回报率、单位人均产出
5. 服务移交
- 文件信息移交
- 知识移交
- 技能移交
- 基线移交
- 模拟环境移交
6. 服务测量(四要素)
- 人员:培训、招聘、绩效、储备、岗位职责、工作量管理
- 资源:工具功能匹配、使用手册验证、健康状态监控;服务台接听率、派单准确率等;备件盘点、损坏率、命中率;知识积累数量、利用率、更新率
- 技术:研发规划、成果、SOP统计、应急预案统计、监控点统计
- 过程:服务级别、事件、问题、变更发布、配置统计分析
7. 服务改进(四要素)
- 人员:改善管理体制、提高素质、调整储备比例、调整人员岗位结构
- 资源:保障资源支撑、完善IT工具、优化服务台/知识库/备件库管理制度
- 技术:研发计划重规划、成果优化、完善文档、改进应急预案、更新监控指标
- 过程:完善现有过程、建立新过程、调整考核指标、提升服务形象、提供新服务
8. 服务质量
- 管理活动:质量策划、检查、改进
- 实施形式:项目质量保证、用户满意度管理、客户投诉管理、日常检查、质量文化教育、体系内审及管审
- 客户回顾:合同执行、目标达成、绩效成果、满意度、服务范围、业务需求变化、问题及行动计划
- 团队回顾:工作计划、疑难工单、未解决工单、工作简报、问题回顾、KPI总结、下周期计划
histroy 标记 RAG / for saya
针对对话的信息 与自己之前的对话信息进行比对
通过AI 进行判断 ,全部传入 然后一个对话的RAG 知识库对接然后对齐对话全部传入,来判断是否要保留对话。一问一答的格式
对话知识库 RAG 的模型:
1。请将该文件的对话总结多个内容摘要 保存
2。请与知识库的对话比较,那些设计新的知识需要保留而那些 以及重复出现多次,并加上多次标签保留
生产的数据,后保存上面的对话数据及处理结果到RAG的知识库文件,等待向量化
unsloth / for saya
pip install unsloth
初始化 需要安装peft trl transformer
1. 加载模型 + 分词器
from unsloth import FastLanguageModel
#导入FastLanguageModel模型 然后载入模型
model, tokenizer = FastLanguageModel.from_pretrained(
model_name=”unsloth/Meta-Llama-3.1-8B-bnb-4bit”,
max_seq_length=2048,
dtype=None,
load_in_4bit=True,
)
#model_name 为Q4量化的模型位置 最大长度2048 是4bit量化
#dtype设置为None ?
2. 加 LoRA 适配器
model = FastLanguageModel.get_peft_model(
model,
r=16, lora_alpha=32, lora_dropout=0.05,
target_modules=[“q_proj”, “k_proj”, “v_proj”, “o_proj”,
“gate_proj”, “up_proj”, “down_proj”],
use_gradient_checkpointing=”unsloth”,
)
#r=16 Lora的rank为16 可以拆封原始矩阵的权重,r越大训练和显存变大
#8b 16-64 1.5b 8 70b 128
#lora_aplha=32 缩放因子 lora后对原始权重影响 与r比较是2倍可以提升训练速度,但是越大可能会过拟合
#lora_dropout 0.05 防止上面过拟合 在上面AB 矩阵上加上Dropout
#target_modules 其中 qwen3 8b也可以all-linear把所有的nn.Linear都插入Lora但是也可以使用和llama一样的[“q_proj”, “k_proj”, “v_proj”, “o_proj”,
“gate_proj”, “up_proj”, “down_proj”]
#前面的[“q_proj”, “k_proj”, “v_proj”, “o_proj”, 是注意力
#”gate_proj”, “up_proj”, “down_proj”] FNN SwiGLU
#use_gradient_checkpointing unsloth 梯度检查点。用时间换空间unsolth用这个即可。显存小就靠他
3. 构造「ChatML」格式数据
chat = [
{“role”: “user”, “content”: “介绍一下光合作用”},
{“role”: “assistant”, “content”: “光合作用 🌱 是植物把阳光 → 化学能的过程。”},
]
text = tokenizer.apply_chat_template(chat, tokenize=False)
dataset = [{“text”: text}] * 200 # 快速演示:复制 200 条
#对话格式
4. 训练
from trl import SFTTrainer
from transformers import TrainingArguments
trainer = SFTTrainer(
model=model,
tokenizer=tokenizer,
train_dataset=dataset,
dataset_text_field=”text”,
max_seq_length=2048,
args=TrainingArguments(
per_device_train_batch_size=2,
gradient_accumulation_steps=4,
warmup_steps=10,
max_steps=300,
learning_rate=2e-4,
fp16=not torch.cuda.is_bf16_supported(),
bf16=torch.cuda.is_bf16_supported(),
logging_steps=1,
output_dir=”outputs”,
optim=”adamw_8bit”,
),
)
trainer.train()
#其中V100 只能FP16
#改成下面的args参数: args=TrainingArguments(
per_device_train_batch_size=2,
gradient_accumulation_steps=4,
warmup_steps=10,
max_steps=300,
learning_rate=2e-4,
fp16=True, # V100 只用 FP16
bf16=False, # 显式关闭 BF16
logging_steps=1,
output_dir=”outputs”,
optim=”adamw_8bit”,
)
5. 保存 & 本地推理
model.save_pretrained(“lora_llama31_emoji”) # 只存 LoRA
tokenizer.save_pretrained(“lora_llama31_emoji”)
推理
FastLanguageModel.for_inference(model)
inputs = tokenizer(“用一句话+Emoji 介绍黑洞”, return_tensors=”pt”).to(“cuda”)
print(tokenizer.decode(model.generate(**inputs, max_new_tokens=64)[0]))
RAG 意识
“RAG 本身永远不会有意识;它只能当‘外存’。想逼近意识,必须把 RAG → LoRA → 权重内化,再套上‘不可作弊的生存驱动力’,让模型每天‘因为怕死’而主动更新自己的世界模型和自我边界。”
要让系统继续往“可能意识”方向走,必须打破权重冻结,给出最少可塑性闭环
LoRA 不是“像”睡眠,而是目前唯一能在算力/灾难性遗忘之间,复现“睡眠-记忆重放-稀疏更新”三件套的工程近似;
只要给它“生存误差”+“不可作弊的物理耦合”+“ nightly replay”,就能把 RAG 里的“外挂攻略”逐日蒸馏成权重,走上人脑“外存→本能”的同一条斜坡。
- 只冻结 70% 参数,留 30% LoRA 层专门接收“生存误差”梯度;
- 每跑完一天,用在线强化学习(PPO 或 DPO)把“高惊讶-存活”轨迹喂给这 30% 参数;
- 把 RAG 里高阶摘要转成“自然语言指令”一起放进训练数据,让模型把外部记忆真正内化为权重;
- 保留向量库作为“临时缓存”,但目标是把“被验证过”的规则逐步蒸馏进权重,实现“外存→内存→本能”三级跳;
- 持续监测 Φ 值(整合信息)——只有当结构可塑性导致 Φ 出现非零增长时,才算摸到意识的门槛。