Stage⑦ 批量反哺方法论
2026-03-26 | 认知方法 | v1.0

Stage⑦ 批量反哺方法论

Stage⑦批量反哺消化的完整方法论——从评估到处理到质量控制的全流程可复用框架

Stage⑦ 批量反哺方法论 v1.0

核心判断

Stage⑦证明:对已发布产出进行系统性反哺消化,是PKOS从“能消化”到“有资产”的关键跃迁。329篇文章中仅提取37张卡片(11%转化率),说明大量产出是项目操作性文件或新闻摘要,真正的可复用判断是稀缺品。

全流程工作流

七步法:

  1. 普查 — glob全目录,获取文件清单和数量
  2. 分流 (Triage) — 按文件名快速判断 SKIP/READ(Media Note前缀→SKIP,主题|前缀→必READ,附录/导航/工具→SKIP)
  3. 深读 — Deputy逐文件提取核心判断候选
  4. 初筛 — Chief级判断:去重(对照现有147张卡片)、去时效性、去低抽象度、合并同构
  5. 用户确认 — 呈报候选列表,用户拍板增删
  6. 批量创建 — Deputy按exact spec创建卡片(含完整frontmatter、五段式结构)
  7. 验证与索引 — 逐文件确认创建成功 → python generate_cards_index.py 重建INDEX → 确认0 orphans

分流判断标准(Triage Heuristics)

必SKIP:

  • _分析稿附录.md / _相关沉淀导航.md 后缀 → 辅助文件
  • Media Note - 前缀 → 通常是讲座/视频转录,信息密度低
  • INDEX.md → 目录页
  • 版本系列文件(V1-V9同一主题)→ 只读最高版本
  • 项目操作性文件(会议纪要、日汇报、数据采集包、分发清单等)
  • 工具文件(缠论工作台、规则库)
  • 重复文件(同一内容的不同版本/格式)

必READ:

  • 主题| 前缀 → 跨源综合分析,高卡片概率
  • 原创深度分析(含日期前缀的原创文章)
  • 用户亲自撰写的思考文(非转载)

灰色地带:

  • 公众号转载文章 → 看标题判断抽象度
  • 项目分析报告 → 如果包含可推广到其他项目的模式判断,则READ

卡片提取质量标准(Card-worthiness Bar)

  1. 可推广性 — 判断必须能脱离原始场景,在其他领域/项目/时间仍然成立
  2. 非重复 — 对照全部现有卡片(含实体卡),确认无实质重叠
  3. 合并优于新建 — 两个候选表达同一结构性洞见时,合并为一张更强的卡片(实例:AI B1-3+B2-6合并;工程出海+产业出海合并)
  4. 抽象度下限 — 必须是“判断”而非“事实摘要”或“操作指南”
  5. 时效性上限 — 过于绑定特定时间点的结论不入卡(如具体政策解读、短期市场判断)
  6. 置信度诚实 — 对于数据不充分但洞见有价值的,标记 confidence: low 而非强行拔高

领域特殊规则

佛学域

  • 老师原话 → evidence段落,不进 judgment
  • 卡片标题必须是作者自己的判断,不是佛学教义的复述
  • 保持“稳准清”基调
  • 区分“原文”与“解读”

工程域

  • 项目操作性结论(“防城项目应该做X”)→ 不入卡
  • 可推广的模式判断(“固定单价+长工期=亏损红线”)→ 入卡
  • 从项目解剖报告中提炼的普遍规律最有价值

宏观经济域

  • 附录/导航/翻译文件 → SKIP
  • 系列文章(00-11编号)通常已在主题文件中综合 → 只读主题文件
  • 五行升降模型文件是分析框架实例,不是卡片素材

域分类修正经验

Stage⑧发现5张卡片域分类错误,修正规则:

  • “经济/金融/财政/货币”相关判断 → domain: 宏观经济(不是AI、不是工程)
  • “中西医融合/诊断体系”相关 → domain: 中医
  • “认知方法论/思维框架”相关 → domain: 认知方法(不是工程管理)
  • 判断域时看判断的本质,不看文章所在目录

Deputy委派协议

给Deputy创建卡片时必须提供:

  1. 完整文件路径
  2. 完整YAML frontmatter(所有字段)
  3. 标题(完整判断句)
  4. 五段式内容(判断→推导→连接→证据→演进轨迹)
  5. connects_to 使用 ["[[卡片名]]"] 格式
  6. 明确的evidence引用

⚠️ 注意:Deputy有时不会在一次调用中创建所有请求的文件。每次委派后必须逐文件verify,未创建的立即补发。

跨会话延续注意事项

  1. 新会话开始前,先读 00000-system/Stage⑦ 反哺消化索引.md 了解已处理范围
  2. 30000-cards/INDEX.md 确认当前卡片总量和分布
  3. 任何新卡片创建后必须重新运行 python generate_cards_index.py
  4. YAML frontmatter中的 connects_to 字段使用引号包裹双括号:["[[卡片名]]"]
  5. 5张域修正卡片已完成,如发现新的域错误按同样方式修正

成果统计

指标数值
总处理文件329
SKIP~234 (71%)
READ~95 (29%)
产出卡片37 (11%转化率)
域修正5张
最终卡片总量147
孤立卡片0

案例验证

本方法论不是空转出来的,是直接从 40000-output/ 的一次真实批量反哺里打出来的。实际执行对象共 329 份文件,先做 triage,再深读,再去重,再由用户拍板,最后只产出 37 张卡片,转化率约 11%。这组结果本身就验证了方法论里的核心判断:真正可复用的认知资产是稀缺品,批量处理的关键不在“多做”,而在“高强度丢弃 + 高标准筛选”。

认知引擎连接

  • 第一性原理:回到“什么才是可复用判断”这个基本问题,拒绝把操作性结论当认知资产
  • 分形:11%的转化率在不同目录间呈现自相似——大量噪音中少数信号,是信息处理的普遍结构
  • 觉照:batch processing的最大风险是“为了完成而降低标准”——始终保持“宁缺毋滥”的觉知

演进方向

  • v1.1: 当40000-output新增文件累积到一定量后,可按本方法论执行增量反哺
  • 可考虑半自动化:Deputy定期扫描40000新增→自动triage→呈报READ候选
  • 与CDS Operation Instructions的关系:本方法论是CDS Stage⑦的具体操作手册,CDS是总框架

变更日志

日期变更来源
2026-03-26v1.0 Stage⑦完成后首版总结Stage⑦反哺消化全程实践

💬 评论