很多朋友在拿到 Cursor 或 Trae 这种 IDE 后,容易养成一种习惯:一头扎进具体的代码文件中,试图用 Tab 和 CMD+K 解决所有问题。但经过这一年的实践,我发现网页版的聊天型 AI 和 IDE 调用的 API 模型是有本质区别的。
首先是模型的可控性。IDE 接入的模型往往为了代码生成做过微调,但在逻辑深度上,ChatGPT 5.2 的 Thinking Extended Thinking 模式或者 Gemini 3 Pro 的推理模式,显然比 Cursor 的 Agent 更加深思熟虑。
更关键的是上下文的管理。当你需要进行宏观架构设计时,IDE 的 RAG 检索有时会显得过于碎片化。我的做法是,利用 git archive --format=zip HEAD -o project.zip 将项目打包。这个命令的好处在于它只打包 Git 追踪的文件,自动排除了 node_modules 和临时数据。把这个压缩包扔给 ChatGPT,它现在的虚拟机能力非常强,可以自行解压、有选择地阅读文件。
相比于在 IDE 里敲敲打打,ChatGPT 这类工具更适合做“顶层设计”。比如技术选型和开发路线制定,它的 Web Searching 能力比 IDE 的 Agent 更广更深;再比如项目初始化,你可以直接让它生成一个包含完整目录结构的 zip 包,甚至顺便画出 mermaid 流程图。
而在数学计算和复杂算法推导上,聊天 AI 更是降维打击。我自己研究油气管道调度问题时,就常把原始数据打包上传,利用 ChatGPT 的超长思考时间,结合“分支聊天”策略,同时探索整数规划、动态规划和强化学习三条路线。这种工程实践的第一步,目前的 IDE 还做不到这么好。
(二)善于使用 workspace 概念,不要浪费类 Cursor 工具的 RAG index
记得 2024 年末,MCP(Model Context Protocol) 概念火得一塌糊涂。而现在, Claude 也在推广 Skill 。但到了现在,你会发现这些复杂的技巧正在被边缘化。本质原因是模型本身变强了,强到不再需要那么多拐杖。
MCP 虽然可以安全地连接数据库(比如限制只读权限等等),但配置起来依然繁琐,且生态本身的安全性也并非无懈可击。数次尝试后,我发现最朴素的方案反而是最有效的:让 AI 基于你的业务代码,写一套 Python 或 Shell 脚本工具。
比如,与其配置复杂的 MCP 去查询订单,不如让 AI 写一个 scripts/get_order_info.py。这样做的好处显而易见:你自己能用,AI 也能用。当你需要进行复杂测试时,直接告诉 AI:“你可以并行调用 scripts/send_test_orders.py 和 scripts/listen_mock_executions.py”。这其实就是一种定制化的、低成本的 MCP,而且完全掌握在你自己的代码仓库里。当然,记得在运行前检查一下 AI 生成的脚本,安全意识不能丢。
(四)给出具体的任务, AI 不是我们偷懒的借口,而是我们效率的乘数
分享一个真实的翻车案例:前段时间有朋友把一份 Word 格式的简历扔给 Cursor,模型选的 Claude Opus 4.5,只给了一句指令:“帮我转成 HTML”。
结果 AI 搞得一团糟。因为它不理解这个 HTML 是要用来做静态展示,还是要部署到某个具体服务中。为了“完成任务”,AI 甚至不知道从哪搞来了一个公有云对象存储的 Token ,把简历里的照片上传到了某个不知名的 OSS 上,想删都删不掉,简直令人啼笑皆非。
这个教训告诉我们,AI 只是工具,决策还得靠人。正确的方式应该是先明确需求:这个 HTML 要放在哪里?是单页静态应用还是嵌入式组件?然后,利用 PLAN 模式或者先问 Chat AI:“我想把 Word 转 HTML,目前有哪些成熟工具?latex2html 还是 pandoc?或者先转 Markdown 再生成 HTML?”
当我们明确了技术路径(比如 Word -> Markdown -> HTML)后,再让 IDE 去执行。AI 是我们效率的乘数,它能把 1 变成 100,但如果我们给出的基数是 0 甚至负数(错误的决策),那结果只能是灾难。Cursor 的 PLAN 模式和 Trae 的 SOLO 模式(生成 .docs/xxx.md)都是很好的辅助思考工具,别为了省事直接蛮干。
(五)不要过度提示,你说的每个字 AI 都很上心