1. 我不再把 AI 当成“答案机器”
我曾经也期待 AI 给我一个漂亮答案:
- 问一个问题
- 得到一个结论
- 直接照做
但现实很快教育我:真正的困难不在“缺答案”,而在于:
- 问题没定义清楚
- 约束条件没写出来
- 结果无法验证
所以我现在把 AI 放在 3 个位置:生成假设、承担反驳、推动行动。
2. 位置一:假设生成器(让思考更快展开)
当我面对一个模糊问题时,我会让 AI 做三件事:
- 给出 5 种可能解释
- 给出每种解释的可验证信号
- 给出最小行动来区分它们
例如:
“我最近效率变差”
我会让 AI 输出:
- 可能原因:睡眠、任务粒度、奖励结构、社交干扰、目标冲突
- 可验证信号:起床时间波动、番茄钟失败点、卡在哪个步骤
- 最小行动:把一天拆成 3 个时间块,每块只做一种任务类型
关键不是“AI 说得对不对”,而是它帮我把问题改写成可验证的形式。
3. 位置二:反驳者(让自我叙事更难糊弄)
我最常见的自欺是:
- “这次不一样”
- “我就是缺动力”
- “环境不允许”
我会让 AI 扮演一个冷酷的反驳者,专门问:
- 你的证据是什么
- 有哪些反例
- 这个解释在什么条件下会失败
- 你有没有把工具变量当成目的
这里的核心是:把话变成可以被反驳的假设。
当我写一段分析时,我会强迫自己补上一句:
“如果发生 X,我就承认我错了。”
这句“失败条件”写不出来,说明我还在讲故事。
4. 位置三:计划助手(把结论变成下一步)
AI 很擅长把抽象目标转成步骤,但前提是你给足约束:
- 可用时间
- 可用资源
- 不做什么
- 产出要长什么样
我常用的请求方式:
- 请把目标拆成 3 个里程碑
- 每个里程碑给 2 个可选路径(快/稳)
- 每条路径给出“最小可交付物”
然后我会自己选路径,而不是让 AI 替我选。
5. 我用 AI 做决策的一个底线
如果一个建议:
- 不能验证
- 不能复盘
- 不能解释失败
那它就不进入我的行动系统。
AI 可以帮助我更快地产生方案,但不能替我承担后果。
一句话总结:把 AI 当成“提问与检验系统”,而不是“结论制造机”。
6. 一个完整例子:用 AI 做“买不买一个方向”的研究
我拿一个最常见的场景来说明:
我想做一个小产品方向,但不确定值不值得投入。
我会把问题拆成 4 类,然后分别让 AI 在每一类里工作。
我会先写下最原始的想法(通常很情绪化):
- “这个方向很火”
- “我好像也能做”
然后让 AI 输出 3 个更可判断的版本:
- 市场是否存在稳定付费人群
- 我能否在 2 周内做出最小可验证版本
- 我是否拥有能形成优势的资源(渠道、数据、行业经验)
接着我选择其中 1 个作为本轮的主问题。
我会让 AI 输出:
- 5 个关键假设
- 每个假设的验证信号
- 最小行动(最便宜的验证)
例如(示例):
- 假设 A:用户愿意为省时间付费
- 信号:用户当前用的替代方案很麻烦
- 最小行动:做一个 landing page + 20 次访谈
- 假设 B:数据来源可持续
- 信号:数据不是一次性的,且更新频率够
- 最小行动:用脚本抓取一周,看稳定性
我会要求它从 3 个角度挑刺:
- 竞争:别人已经做到了什么程度
- 交付:你最可能卡在什么环节
- 合规:有没有隐性风险
这一段非常重要,因为它会逼你从“想做”回到“能做”。
我会让 AI 输出一个计划,但我会加一条硬约束:
- 每天必须产出一个可见的东西
- 第 7 天必须能判断“继续 or 停止”
同时,我会写清楚退出条件:
- 访谈 20 人后仍然无法复述明确需求
- landing page 转化率低于某个阈值
- 数据抓取不稳定
退出条件写清楚,行动就不会被情绪拖成长期消耗。
7. AI 研究里最重要的产物:问题集,而不是答案
很多人研究失败,是因为只在收集答案。
我更在意的是:
- 作者:Vemperor
- 链接:https://tangly1024.com/article/example-260306
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。



