从 Opus 4.6 到 M2.5:我的 AI Agent 成本暴降 95%

最近我做了一件挺夸张的事: 把整个 OpenClaw 的模型切换了一遍,整体成本直接下降了 95%。

原因很简单—— MiniMax 刚刚发布了一个新的开源模型:M2.5。

说结论:

  • 编码能力 对标 Opus 4.6
  • 速度比 Sonnet 还快
  • 工具调用(Tool Calling)能力达到当前最先进水平
  • 成本却只是一小部分

我已经把整个 OpenClaw 系统全部迁移到 M2.5 上运行了,而且效果非常稳定。下面说清楚:为什么它改变了游戏规则,以及你如何也能做到同样的事。

为什么现在跑 AI Agent 会这么贵?

如果你现在在用 Opus 4.6 这类 Frontier 模型,你一定懂这个痛点。

它们确实强,但贵得离谱

一旦你让 Agent:

  • 自主运行数小时
  • 执行复杂的多步骤任务
  • 持续规划、推理、调用工具

API 账单几乎是肉眼可见地往上涨。

img

这直接限制了 Agent 的使用方式:

不是技术不行,是成本不允许

MiniMax M2.5 正好把这个问题彻底解决了。

MiniMax M2.5 到底强在哪?

img

先看硬指标(不是营销话术):

  • SWE-Bench Verified :80.2% (编码能力与 Opus 4.6 基本持平)
  • BrowseComp :76.3%(搜索任务)
  • BFCL:76.8%(Agent 工具调用)

但真正让我决定全面切换的,不只是分数。

它是为「长期 Agent 工作流」而生的模型

M2.5 的核心优势是: 长时任务稳定性极强。

在 OpenClaw 这种 Agent 框架里,它可以:

  • 长时间保持上下文不丢失
  • 工作流走到 10–15 步也不会“发散”
  • 持续规划、执行、修正,而不是中途崩掉

这意味着什么?

img

你可以放心让 Agent 自己干活,而不是一步步盯着。

成本有多夸张?

在大约 100 tokens / 秒 的使用强度下:

  • 每小时成本 ≈ 1 美元
  • 对比 Frontier 模型,成本直接下降 95%

更重要的是—— M2.5 实际只激活 100 亿参数。

这让它成为目前 Tier-1 模型里体量最小的一个

如果你是:

  • 自托管
  • 或对算力 / 显存敏感

那优势会非常明显。

我并不是说它在所有方面都超过 Opus 4.6。 但在 Agent 编码 + 自动化工作流 这个场景下:

M2.5 是性价比最优解,没有之一。

用 M2.5 跑 OpenClaw 的完整步骤

第一步:安装 OpenClaw

1
curl -fsSL https://openclaw.ai/install.sh | bash

按提示操作即可,安装器会自动处理所有配置。

注意:不同系统命令可能略有不同,请始终以官网为准 👉 https://openclaw.ai

第二步:选择模型

在初始化过程中,OpenClaw 会让你选择模型。 直接选 MiniMax M2.5(官方推荐)。

img

第三步:获取 MiniMax API Key

订阅编码计划: 👉 https://platform.minimax.io/subscribe/coding-plan

  • 入门 Coding Plan:$8.8 / 月
  • 对个人开发者来说已经是生产级 Agent 能力

第四步:创建 Telegram Bot

流程很简单:

  1. 打开 Telegram
  2. 搜索 BotFather
  3. 创建新 Bot
  4. 设置名称和唯一用户名
  5. 获取 Bot Token

第五步:配置 Bot Token

把 BotFather 给你的 Token 粘贴到 OpenClaw / ClawdBot 的终端提示中即可。

img

完成后,你就可以直接在 Telegram 里和 Agent 对话了。