2026-03-26 | 认知方法 | v1.0
Stage⑦ 批量反哺方法论
Stage⑦批量反哺消化的完整方法论——从评估到处理到质量控制的全流程可复用框架
Stage⑦ 批量反哺方法论 v1.0
核心判断
Stage⑦证明:对已发布产出进行系统性反哺消化,是PKOS从“能消化”到“有资产”的关键跃迁。329篇文章中仅提取37张卡片(11%转化率),说明大量产出是项目操作性文件或新闻摘要,真正的可复用判断是稀缺品。
全流程工作流
七步法:
- 普查 — glob全目录,获取文件清单和数量
- 分流 (Triage) — 按文件名快速判断 SKIP/READ(Media Note前缀→SKIP,主题|前缀→必READ,附录/导航/工具→SKIP)
- 深读 — Deputy逐文件提取核心判断候选
- 初筛 — Chief级判断:去重(对照现有147张卡片)、去时效性、去低抽象度、合并同构
- 用户确认 — 呈报候选列表,用户拍板增删
- 批量创建 — Deputy按exact spec创建卡片(含完整frontmatter、五段式结构)
- 验证与索引 — 逐文件确认创建成功 →
python generate_cards_index.py重建INDEX → 确认0 orphans
分流判断标准(Triage Heuristics)
必SKIP:
_分析稿附录.md/_相关沉淀导航.md后缀 → 辅助文件Media Note -前缀 → 通常是讲座/视频转录,信息密度低- INDEX.md → 目录页
- 版本系列文件(V1-V9同一主题)→ 只读最高版本
- 项目操作性文件(会议纪要、日汇报、数据采集包、分发清单等)
- 工具文件(缠论工作台、规则库)
- 重复文件(同一内容的不同版本/格式)
必READ:
主题|前缀 → 跨源综合分析,高卡片概率- 原创深度分析(含日期前缀的原创文章)
- 用户亲自撰写的思考文(非转载)
灰色地带:
- 公众号转载文章 → 看标题判断抽象度
- 项目分析报告 → 如果包含可推广到其他项目的模式判断,则READ
卡片提取质量标准(Card-worthiness Bar)
- 可推广性 — 判断必须能脱离原始场景,在其他领域/项目/时间仍然成立
- 非重复 — 对照全部现有卡片(含实体卡),确认无实质重叠
- 合并优于新建 — 两个候选表达同一结构性洞见时,合并为一张更强的卡片(实例:AI B1-3+B2-6合并;工程出海+产业出海合并)
- 抽象度下限 — 必须是“判断”而非“事实摘要”或“操作指南”
- 时效性上限 — 过于绑定特定时间点的结论不入卡(如具体政策解读、短期市场判断)
- 置信度诚实 — 对于数据不充分但洞见有价值的,标记
confidence: low而非强行拔高
领域特殊规则
佛学域
- 老师原话 → evidence段落,不进 judgment
- 卡片标题必须是作者自己的判断,不是佛学教义的复述
- 保持“稳准清”基调
- 区分“原文”与“解读”
工程域
- 项目操作性结论(“防城项目应该做X”)→ 不入卡
- 可推广的模式判断(“固定单价+长工期=亏损红线”)→ 入卡
- 从项目解剖报告中提炼的普遍规律最有价值
宏观经济域
- 附录/导航/翻译文件 → SKIP
- 系列文章(00-11编号)通常已在主题文件中综合 → 只读主题文件
- 五行升降模型文件是分析框架实例,不是卡片素材
域分类修正经验
Stage⑧发现5张卡片域分类错误,修正规则:
- “经济/金融/财政/货币”相关判断 → domain: 宏观经济(不是AI、不是工程)
- “中西医融合/诊断体系”相关 → domain: 中医
- “认知方法论/思维框架”相关 → domain: 认知方法(不是工程管理)
- 判断域时看判断的本质,不看文章所在目录
Deputy委派协议
给Deputy创建卡片时必须提供:
- 完整文件路径
- 完整YAML frontmatter(所有字段)
- 标题(完整判断句)
- 五段式内容(判断→推导→连接→证据→演进轨迹)
- connects_to 使用
["[[卡片名]]"]格式 - 明确的evidence引用
⚠️ 注意:Deputy有时不会在一次调用中创建所有请求的文件。每次委派后必须逐文件verify,未创建的立即补发。
跨会话延续注意事项
- 新会话开始前,先读
00000-system/Stage⑦ 反哺消化索引.md了解已处理范围 - 读
30000-cards/INDEX.md确认当前卡片总量和分布 - 任何新卡片创建后必须重新运行
python generate_cards_index.py - YAML frontmatter中的
connects_to字段使用引号包裹双括号:["[[卡片名]]"] - 5张域修正卡片已完成,如发现新的域错误按同样方式修正
成果统计
| 指标 | 数值 |
|---|---|
| 总处理文件 | 329 |
| SKIP | ~234 (71%) |
| READ | ~95 (29%) |
| 产出卡片 | 37 (11%转化率) |
| 域修正 | 5张 |
| 最终卡片总量 | 147 |
| 孤立卡片 | 0 |
案例验证
本方法论不是空转出来的,是直接从 40000-output/ 的一次真实批量反哺里打出来的。实际执行对象共 329 份文件,先做 triage,再深读,再去重,再由用户拍板,最后只产出 37 张卡片,转化率约 11%。这组结果本身就验证了方法论里的核心判断:真正可复用的认知资产是稀缺品,批量处理的关键不在“多做”,而在“高强度丢弃 + 高标准筛选”。
认知引擎连接
- 第一性原理:回到“什么才是可复用判断”这个基本问题,拒绝把操作性结论当认知资产
- 分形:11%的转化率在不同目录间呈现自相似——大量噪音中少数信号,是信息处理的普遍结构
- 觉照:batch processing的最大风险是“为了完成而降低标准”——始终保持“宁缺毋滥”的觉知
演进方向
- v1.1: 当40000-output新增文件累积到一定量后,可按本方法论执行增量反哺
- 可考虑半自动化:Deputy定期扫描40000新增→自动triage→呈报READ候选
- 与CDS Operation Instructions的关系:本方法论是CDS Stage⑦的具体操作手册,CDS是总框架
变更日志
| 日期 | 变更 | 来源 |
|---|---|---|
| 2026-03-26 | v1.0 Stage⑦完成后首版总结 | Stage⑦反哺消化全程实践 |