春节前后,大模型市场神仙打架:MiniMax M2.5、GPT-5.3-Codex、GLM-5、Opus 4.6、Qwen3.5-Plus 轮番登场。但作为每天跑 Agent 的重度用户,我的体感却很复杂——尤其是面对 Opus 4.6 的账单时。"
说实话,Opus 4.6 的能力确实强,但那个价格也真的是"贵到离谱"。对于我们这种每天深度依赖 AI 写代码、跑 Agent 的开发者来说,每次跑一个长上下文的重构任务,看着后台蹭蹭上涨的账单,心里都在滴血——真的用不起!
于是,我把目光投向了最近低调上线、主打“1 美元/小时”的 MiniMax M2.5。
我目前的策略是:日常 80-90% 的任务用 M2.5 就能搞定,剩下少数极难的任务再切换到 Opus 4.6。这样既能保证效果,又能大幅降低成本。
MiniMax 官方给出的 M2.5 数据很漂亮:SWE-Bench Verified 直接干到了 80.2% ,任务完成速度比上一代快了 37% ——这意味着原本 30 分钟的重构任务,现在 19 分钟就能跑完。
但作为一个 AI 编程老用户来说,我最开始是持怀疑态度的。毕竟国产模型在编程这块,以前总给我一种“写 Demo 挺顺,进生产环境就拉胯”的刻板印象。
于是,我专门花了一个深夜,用它做了两个极其有代表性的实测:
- 现有项目的深度重构:在我的AI 智能面试平台里,新增一个完整的"错题复盘"模块。
- 全栈项目开发:从 0 到 1 手搓一个带拖拽功能的 Web 任务看板。
实测下来的结果,只能用“杀疯了”来形容。
最让我惊艳的不是它比 Opus 快 3 倍的推理速度,而是那股“老架构师”的味道。它不仅帮我省下了 90% 的 Token 费用,最重要的是,它让我第一次感觉到:无限运行复杂 Agent,在经济上终于可行了。
Claude Code 中接入 MiniMax M2.5
Claude Code 强在它的工具链和执行力,但如果你觉得 Claude 官方模型太贵,或者受够了那挤牙膏一样的响应速度,完全可以把 M2.5 作为它的底层大模型。
M2.5 目前已经是 OpenRouter 调用量的榜一了:
Claude Code 强在它的工具链和执行力,但如果你觉得 Claude 官方模型太贵,或者受够了那挤牙膏一样的响应速度,完全可以把 M2.5 作为它的底层大模型。
由于 M2.5 采用了标准的 OpenAI 兼容接口,接入过程非常丝滑。
如果你本机没有安装 Claude Code 的话,只需要运行下面这行命令安装即可(Node.js 18+):- npm install -g @anthropic-ai/claude-code
复制代码 1.获取 API Key
先去 MiniMax 开放平台获取 Key:https://platform.minimaxi.com/user-center/basic-information/interface-key
2. 神器推荐
强烈推荐安装 CC Switch,这是一个专门管理 Claude Code 模型切换的小工具,能让你在不同 Provider 之间一键横跳。并且,还支持管理 Skills、MCP 和提示词。
启动 CC Switch,点击右上角 ”+” ,选择预设的 MiniMax 供应商,并填写你的 MiniMax API Key。
将模型名称全部改为 MiniMax-M2.5,完成后点击右下角的 “添加”。
项目地址:https://github.com/farion1231/cc-switch 。
3.手动编辑配置文件
除了上面这种可视化配置方式之外,你也可以手动编辑配置文件。- # Stpe1: 编辑或创建 Claude Code 的配置文件# MacOS & Linux 为 `~/.claude/settings.json`# Windows 为`用户目录/.claude/settings.json`# `MINIMAX_API_KEY` 需替换为你的 MiniMax API Key{ "env": { "ANTHROPIC_BASE_URL": "https://api.minimaxi.com/anthropic", "ANTHROPIC_AUTH_TOKEN": "MINIMAX_API_KEY", "API_TIMEOUT_MS": "3000000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1, "ANTHROPIC_MODEL": "MiniMax-M2.5", "ANTHROPIC_SMALL_FAST_MODEL": "MiniMax-M2.5", "ANTHROPIC_DEFAULT_SONNET_MODEL": "MiniMax-M2.5", "ANTHROPIC_DEFAULT_OPUS_MODEL": "MiniMax-M2.5", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "MiniMax-M2.5" }}# Step2: 编辑或新增 `.claude.json` 文件# MacOS & Linux 为 `~/.claude.json`# Windows 为`用户目录/.claude.json`# 新增 `hasCompletedOnboarding` 参数{ "hasCompletedOnboarding": true}
复制代码 4.测试是否生效
在任意目录下输入 claude 命令即可启动 Claude Code,选择 信任此文件夹 (Trust This Folder)。
多场景实测
Case1:AI 智能面试平台新增错题本功能
春节后,我一直想为我的 AI 智能面试平台项目新增一个错题本的功能。
这个需求看似简单,实则涉及数据库 schema 变更、RESTful API 设计、前端状态管理、路由配置等多个环节,是检验 AI 编程能力的典型场景。
需求描述:
目前用户做完模拟面试后,只能看历史记录。用户无法标记自己回答得不好的题目进行重点复习。我想要实现一个"错题收藏与复习"模块。在面试详情页的每个 Q&A 旁增加一个"收藏/加入复盘"按钮;新增一个"复盘本"页面,列表展示收藏的题目。
第一阶段:需求拆解
输入需求后,M2.5 没有直接开始写代码,而是先进入分析模式,读取项目结构、技术栈和现有代码规范。
这就是原生 Spec 行为的魅力,在动手写代码前,先以架构师视角主动拆解功能、结构和 UI 设计,输出一份完整的实现计划。计划包含:
- 需求拆解:明确了需求边界,将"错题收藏与复习"拆分为两个核心用户场景。
- 数据模型设计:它没有简单粗暴地新建表,而是选择在现有的 InterviewAnswerEntity 中优雅地扩展字段。复用已有实体,避免过度设计,同时通过 favoritedAt 为后续的"按时间排序"预留了扩展空间。
- RESTful API 设计:RESTful 接口路径、请求/响应参数、状态码规范。
- 前后端文件映射:不仅列出了要改哪些文件,还明确了操作类型(修改/新建)和职责分工。
- 验证方案:Plan 的最后,甚至给出了 5 步验证清单,从 API 可用性到前端交互,覆盖完整的功能路径。
第二阶段:丝滑的执行与容错
确认 Plan 后,我选择 Option 2:auto-accept edits(自动接受修改)。
<blockquote>
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |