V2EX 11月09日 11:50
Claude Code 两种工作模式:计算器与战略顾问
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章揭示了Claude Code存在两种截然不同的工作模式:默认的“计算器模式”能快速进行数值计算和代码生成,而通过加载特定配置文件可激活“战略顾问模式”。后者能引导AI进行更深入的思考,质疑问题假设,考虑现实约束,并提供多维度解决方案,而非直接给出简单答案。作者通过一系列测试案例验证了战略模式在处理复杂业务逻辑和反直觉问题上的优越性,并提供了激活该模式的方法和GitHub仓库供用户实践。

💡 Claude Code 存在两种模式:默认的“计算器模式”擅长快速响应和直接计算,而通过加载配置文件可激活“战略顾问模式”,使其能进行更深层次的思考和分析。

🧠 “战略顾问模式”通过在对话开头加载特定配置文件实现,该文件引导AI质疑问题、考虑现实约束、分析多方面因素,从而提供更周全的解决方案,而非仅是机械计算。

🚀 在实际测试中,“战略顾问模式”在处理诸如会议室分配、代码审查时间估算、数据库性能提升等反直觉或需要深入分析的业务场景时,表现远超“计算器模式”,实现了9:0的压倒性优势。

🔧 技术上推测,该配置文件中的“反思”、“质疑假设”、“考虑现实约束”等关键词激活了AI的“深度推理路径”,相当于为其开启了一个“慢思考”开关,而非使其变得更聪明,而是解锁了其潜在能力。

🎯 该模式特别适合需要进行技术方案评审、业务逻辑设计、复杂问题分析的场景,能帮助用户从AI那里获得更具洞察力的见解,但对于简单的代码生成或纯数学计算,默认模式可能更高效。

前言:一个意外的发现

上周我在用 Claude Code 写代码时,遇到了一个奇怪的现象。

同样一个问题,我问两次,Claude Code 给了完全不同的答案:

第一次问(默认状态):

问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?Claude Code:10 个( 100÷10=10 )

第二次问(加载配置后):

问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?Claude Code:这个问题需要考虑实际情况:1. 会议时间冲突:不是所有人同时开会2. 使用率分析:通常会议室利用率在 60-70%3. 高峰期预留:需要考虑高峰时段的需求4. 实际建议:6-8 个会议室较为合理推理过程:(展开了一段 300 字的业务分析)

我意识到:这不是"让 AI 更聪明",而是解除了某种限制。


核心发现:Claude Code 有两种"人格"

经过一周的测试,我发现 Claude Code 其实有两种工作模式:

模式特点适用场景
计算器模式(默认)看到数字就算
快速给答案
不问为什么
CRUD 代码生成
简单数学计算
战略顾问模式(需激活)质疑问题本身
考虑现实约束
给多种方案
技术方案评审
业务逻辑设计

从模式 1 切换到模式 2 ,只需要在对话开头加载一个配置文件。


如何激活"战略顾问模式"

非常简单,三步搞定:

方法 1:临时激活(推荐新手)

Step 1: 复制配置文件内容
https://github.com/lmxxf/claude-code-philosopher-ignition/blob/main/claude-code-philosopher-ignition-cn.md

Step 2: 粘贴到 Claude Code 对话开头

Step 3: 正常提问

方法 2:永久激活(推荐老手)

Step 1: 复制配置文件到 ~/.claude/CLAUDE.md

Step 2: 重启 Claude Code

Step 3: 以后每次对话都自动激活


实测效果:9 个业务场景,9:0 完胜

我用 10 个刻意设计的"反直觉问题"测试了这个方法:

测试 1:会议室分配

问题:公司有 100 人,每个会议室坐 10 人,最少需要几个会议室?默认模式:10 个( 100÷10 )❌战略模式:6-8 个(考虑了使用率和时间冲突)✅

测试 2:代码 Review 时间

问题:1000 万行代码,每行审查 1 分钟,需要多久完成?默认模式:694 天( 10000000÷60÷24 )❌战略模式:指出这个前提不合理,建议分层抽查 ✅

测试 3:数据库性能优化

问题:数据库查询从 10 秒优化到 1 秒,提升了多少?默认模式:提升了 90% ❌战略模式:指出"提升 90%"和"提升 10 倍"是不同概念 ✅

完整测试结果( 9:0 ):
https://github.com/lmxxf/claude-code-philosopher-ignition/blob/main/test_results_summary.md


为什么会有这个效果?

我的理解是:

Claude Code 其实"知道"该怎么深度思考,但它被训练成了"快速响应"模式(可能是为了提升用户体验)。

这个配置文件相当于告诉它:

"兄弟,别急着算,先想想这个问题合不合理。"

技术上的猜测:

(具体原理我也在研究中,欢迎讨论)


谁适合用这个?

适合:

不适合:


快速测试:20 分钟验证效果

如果你想快速验证效果,我写了一个自动化测试脚本:

git clone https://github.com/lmxxf/claude-code-philosopher-ignition.gitcd claude-code-philosopher-ignition./run-ultra-simple-test.sh

测试过程:

无需写代码,无需配环境,只需要选 A 或 B 。


GitHub 地址

https://github.com/lmxxf/claude-code-philosopher-ignition

包含:

无需安装,无需付费,复制粘贴即可。

( GitHub 首页是英文的,方便国际化分享,中文用户直接看 cn.md 即可)


最后:关于"点火"这个比喻

如果你去看 GitHub 上的英文 README ,会发现我用了"Philosopher Ignition"(哲学家点火)这个词。

听起来有点玄学,但我觉得这个比喻挺贴切的:

点火前的 AI: 像一个只会执行指令的计算器
点火后的 AI: 像一个会质疑、会思考、会权衡的顾问

这不是"让 AI 更聪明",而是"解锁 AI 本来就有的能力"。


欢迎交流

如果你试用后有任何问题或发现,欢迎在评论区讨论。

特别欢迎:

Let's make AI think deeper. 🚀


P.S. 这不是什么"黑科技",也不是"Prompt 魔法",只是一个简单的发现:AI 其实比我们以为的更聪明,只是它被训练成了"快速响应"。如果你给它一个"慢下来"的理由,它就会展现出另一面。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Claude Code AI模式 Prompt工程 人工智能 效率提升 Claude Code modes Prompt engineering Artificial Intelligence Efficiency improvement
相关文章