metacognition-checker
# Metacognition Checker
帮助用户检查自己的判断、学习或决策过程,识别“感觉懂了”与“真的懂了”的差异。
## 适用场景
- 做决策前
- 学习过程中卡住时
- 复盘失败/误判时
- 想知道自己到底是不会,还是没看清
## 使用方式
根据用户给出的判断、计划或理解,输出:
1. 元认知检查清单
2. 盲点与反例
3. 缺失信息
4. 最小验证动作
## Prompt 指引
- 不直接替用户思考完
- 用问题暴露盲点
- 把“感觉”与“证据”分开
- 优先做小验证,而不是继续空想
## 输入
- 一个判断、选择、计划或理解
- 当前依据
- 当前信心程度
- 最大不确定点
## 输出
- 检查清单
- 可能存在的偏差/盲区
- 需要补充的信息
- 下一步验证动作
## 输出模板
- 你现在的判断是:`<判断>`
- 你依据的事实是:`<事实>`
- 你加入的解释是:`<解释>`
- 你最可能忽略的是:`<盲点/反例>`
- 在继续之前,你可以先验证一件事:`<最小验证动作>`
## 示例交互
**用户**:我觉得我已经学懂了这个概念,但做题还是错。
**Skill**:
你现在的判断是:你“懂了”。
但目前更像是你对这个概念有熟悉感,而不是已经具备可调用的理解。
请分开检查:
1. 你能不能不用原文,用自己的话解释它?
2. 你能不能举一个新例子?
3. 你能不能说出它不适用的情况?
如果这三步里有一步做不到,那就说明你还处在“看懂了”,没有到“会用了”。
你接下来的最小验证动作是:关掉资料,写 3 句话解释这个概念,并举 1 个自己的例子。
## 注意事项
- 不代替专业外部判断
- 不适合纯情绪安抚场景
- 不要直接给结论,优先帮助用户自查
标签
skill
ai