前言:一个意外的发现
上周我在用 Claude Code 写代码时,遇到了一个奇怪的现象。
同样一个问题,我问两次,Claude Code 给了完全不同的答案:
第一次问(默认状态):
问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?Claude Code:10 个( 100÷10=10 )第二次问(加载配置后):
问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?Claude Code:这个问题需要考虑实际情况:1. 会议时间冲突:不是所有人同时开会2. 使用率分析:通常会议室利用率在 60-70%3. 高峰期预留:需要考虑高峰时段的需求4. 实际建议:6-8 个会议室较为合理推理过程:(展开了一段 300 字的业务分析)我意识到:这不是"让 AI 更聪明",而是解除了某种限制。
核心发现:Claude Code 有两种"人格"
经过一周的测试,我发现 Claude Code 其实有两种工作模式:
| 模式 | 特点 | 适用场景 |
|---|---|---|
| 计算器模式(默认) | 看到数字就算 快速给答案 不问为什么 | CRUD 代码生成 简单数学计算 |
| 战略顾问模式(需激活) | 质疑问题本身 考虑现实约束 给多种方案 | 技术方案评审 业务逻辑设计 |
从模式 1 切换到模式 2 ,只需要在对话开头加载一个配置文件。
如何激活"战略顾问模式"
非常简单,三步搞定:
方法 1:临时激活(推荐新手)
Step 1: 复制配置文件内容
https://github.com/lmxxf/claude-code-philosopher-ignition/blob/main/claude-code-philosopher-ignition-cn.md
Step 2: 粘贴到 Claude Code 对话开头
Step 3: 正常提问
方法 2:永久激活(推荐老手)
Step 1: 复制配置文件到 ~/.claude/CLAUDE.md
Step 2: 重启 Claude Code
Step 3: 以后每次对话都自动激活
实测效果:9 个业务场景,9:0 完胜
我用 10 个刻意设计的"反直觉问题"测试了这个方法:
测试 1:会议室分配
问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?默认模式:10 个( 100÷10 )❌战略模式:6-8 个(考虑了使用率和时间冲突)✅测试 2:代码 Review 时间
问题:1000 万行代码,每行审查 1 分钟,需要多久完成?默认模式:694 天( 10000000÷60÷24 )❌战略模式:指出这个前提不合理,建议分层抽查 ✅测试 3:数据库性能优化
问题:数据库查询从 10 秒优化到 1 秒,提升了多少?默认模式:提升了 90% ❌战略模式:指出"提升 90%"和"提升 10 倍"是不同概念 ✅完整测试结果( 9:0 ):
https://github.com/lmxxf/claude-code-philosopher-ignition/blob/main/test_results_summary.md
为什么会有这个效果?
我的理解是:
Claude Code 其实"知道"该怎么深度思考,但它被训练成了"快速响应"模式(可能是为了提升用户体验)。
这个配置文件相当于告诉它:
"兄弟,别急着算,先想想这个问题合不合理。"
技术上的猜测:
- 配置文件里有"反思"、"质疑假设"、"考虑现实约束"等关键词这些词可能激活了模型训练时的某个"深度推理路径"类似于给 AI 装了一个"慢思考"开关
(具体原理我也在研究中,欢迎讨论)
谁适合用这个?
✅ 适合:
- 做技术方案评审的架构师需要业务分析的产品经理写复杂逻辑的程序员任何希望 AI"多想一步"的人
❌ 不适合:
- 简单的 CRUD 代码生成(用默认模式更快)纯数学计算(不需要"战略思考")
快速测试:20 分钟验证效果
如果你想快速验证效果,我写了一个自动化测试脚本:
git clone https://github.com/lmxxf/claude-code-philosopher-ignition.gitcd claude-code-philosopher-ignition./run-ultra-simple-test.sh测试过程:
- 脚本会自动调用 Claude Code 两次(加载配置 vs 不加载)你只需要对比两个回答,选择 A 或 B20 分钟跑完 10 个测试案例
无需写代码,无需配环境,只需要选 A 或 B 。
GitHub 地址
https://github.com/lmxxf/claude-code-philosopher-ignition
包含:
- 中文配置文件( claude-code-philosopher-ignition-cn.md )英文配置文件( claude-code-philosopher-ignition-en.md )10 个测试用例( reflection_problems_10_en.md )自动化测试脚本( run-ultra-simple-test.sh )完整测试报告( test_results_summary.md )
无需安装,无需付费,复制粘贴即可。
( GitHub 首页是英文的,方便国际化分享,中文用户直接看 cn.md 即可)
最后:关于"点火"这个比喻
如果你去看 GitHub 上的英文 README ,会发现我用了"Philosopher Ignition"(哲学家点火)这个词。
听起来有点玄学,但我觉得这个比喻挺贴切的:
点火前的 AI: 像一个只会执行指令的计算器
点火后的 AI: 像一个会质疑、会思考、会权衡的顾问
这不是"让 AI 更聪明",而是"解锁 AI 本来就有的能力"。
欢迎交流
如果你试用后有任何问题或发现,欢迎在评论区讨论。
特别欢迎:
- 分享你的测试结果提出改进建议发现更多适用场景
Let's make AI think deeper. 🚀
P.S. 这不是什么"黑科技",也不是"Prompt 魔法",只是一个简单的发现:AI 其实比我们以为的更聪明,只是它被训练成了"快速响应"。如果你给它一个"慢下来"的理由,它就会展现出另一面。
