GLM coding plan 49块钱养一只龙虾,真香
最近智谱上了GLM-5.1,能力直接对标Claude Opus 4.6,编码评测拿了个全球第三。一时间大家都在讨论,但热闹归热闹,算力又不够了。
今天智谱又一次开放了退款渠道。
这个场景似曾相识。GLM-5发布的时候也来过一次,当时股票涨了520%,套餐涨价30%,然后服务器崩了,然后道歉退款。这套连招,智谱已经是老手了。
但说句公道话,抛开这些槽点,智谱的Coding Plan用来养OpenClaw,性价比是真的高。
Coding Plan是什么
简单说,智谱搞了一个专门给AI编程工具用的订阅套餐。
你付一个月费,就可以在Claude Code、OpenClaw、Cline、Cursor这些主流编程工具里用智谱的模型。不需要按token单独计费,套餐内随便用,用完了就等下一个周期。
支持的模型包括GLM-5.1、GLM-5、GLM-5-Turbo、GLM-4.7等,全部都能用。GLM-5.1定位最高端,对标Claude Opus,GLM-5-Turbo主打速度,GLM-4.7适合日常编码。
还附赠几个MCP工具:联网搜索、网页读取、开源仓库读取,以及GLM in Excel。
价格几何
三个档位:
Lite,49元/月。每5小时最多约80次对话,每周约400次。
Pro,149元/月。每5小时最多约400次对话,每周约2000次。
Max,469元/月。每5小时最多约1600次对话,每周约8000次。
连续包季打9折,包年打8折。
也就是说,Lite包年大概47块钱一个月,Pro包年大概119块,Max包年大概376块。
横向对比一下。Claude Pro是20美元一个月,折合人民币大概145块,但那个是全功能的,不限于编程。不过Claude Pro的用量也很紧,用完就等。
单纯从编程场景看,49块钱一个月能用GLM-5.1,这个价格确实没得说。
不过要注意,GLM-5.1和GLM-5作为高阶模型,消耗额度比GLM-4.7高。高峰期(每天14:00-18:00)按3倍扣,非高峰期按2倍扣。官方建议普通任务用GLM-4.7,复杂任务才切GLM-5.1,这样额度用得慢一些。
作为限时福利,GLM-5.1和GLM-5-Turbo在非高峰期只按1倍扣,这个优惠持续到4月底。
老套餐的优势
这里要插一句。我是买的Lite老套餐,就是2月12日涨价之前订阅的那批。
老套餐没有周限制,也没有5小时窗口限制。用起来是真的舒服,不用担心这个周期还剩多少额度。
新套餐加了5小时窗口和每周额度上限,明显是为了防止个别用户疯狂调用把服务器搞崩。但限制加得确实有点紧,很多用户抱怨。
怎么在OpenClaw上用
官方给了配置方法,也很简单。
正常流程是跑 openclaw config,选择Model/auth provider的时候选Z.AI,然后选Coding-Plan-CN,把API Key粘贴进去就行了。
支持的模型列表:GLM-5.1、GLM-5、GLM-5-Turbo、GLM-4.7、GLM-4.5-Air、GLM-4.6、GLM-4.5、GLM-4.5V、GLM-4.6V。
注意别选Flash和FlashX,那两个不在套餐范围内,选了会扣费。
配置完之后就可以开始用了。OpenClaw会通过智谱的API来调用模型,日常对话、代码生成、文件操作都走套餐额度。
我踩的坑
但是。
官方的方法我试了,不好使。
用OpenClaw内置的z.ai Provider配置,能连上,但用起来各种问题。具体表现就是请求经常超时或者返回错误,稳定性很差。
最后我是手动配置了一个自定义Provider才解决的。
在OpenClaw的配置文件里,把provider改成这样:
"custom-open-bigmodel-cn": {
"baseUrl": "https://open.bigmodel.cn/api/coding/paas/v4",
"apiKey": "你的API Key",
"api": "openai-completions"
}
关键点是baseUrl要指向coding专用的端点 https://open.bigmodel.cn/api/coding/paas/v4,而不是通用的API地址。
配好之后,选择这个provider和对应的模型(比如GLM-5-Turbo),就能正常使用了。
如果你也遇到官方provider不稳定的情况,可以试试这个方法。
养龙虾体验
用GLM Coding Plan养OpenClaw,怎么说呢,性价比拉满。
OpenClaw本身就是一个7x24小时运行的AI助手,可以接飞书、Telegram、Discord等平台。它需要持续消耗token,如果你用按量计费的API,成本很容易失控。
但用Coding Plan的话,一个月固定49块钱,不管你的龙虾多能聊,费用就这么多。对于日常使用来说,Lite套餐的额度基本够用。
GLM-5-Turbo的响应速度很快,适合OpenClaw的高频对话场景。GLM-5.1更强但更慢,适合复杂的编程和分析任务。我一般默认用GLM-5-Turbo,需要深度思考的时候临时切GLM-5.1。
顺便说一句,智谱官方明确说了,OpenClaw在Coding Plan中采用的是次级调度策略。意思是如果Coding Agent(比如Claude Code)和OpenClaw同时使用套餐,Coding Agent优先。高负载的时候OpenClaw可能会排队或限流。
这个策略可以理解,毕竟Coding Plan的主战场是编程工具。但对OpenClaw用户来说,偶尔被限流还是有点不爽。不过实际使用中,这种情况不常遇到。
GLM-5.1值不值得用
简单说一下GLM-5.1的能力。
在三大代码评测基准(SWE-bench Pro、Terminal-Bench、NL2Repo)中,GLM-5.1拿下了全球第三、国产和开源模型第一。SWE-bench Pro上甚至超过了Claude Opus 4.6。
编程能力方面,编码评测得分45.3,达到了Claude Opus 4.6的94.6%。考虑到价格差了一个数量级,这个性价比确实很夸张。
但话说回来,GLM-5.1上线后算力又不够了,服务器经常排队。这就是国产大模型的经典困境:模型很强,但基础设施跟不上。智谱已经道歉并开放了退款,说明他们也意识到了这个问题。
我的建议是,如果你已经在用OpenClaw或者类似的AI助手工具,Coding Plan的Lite套餐(尤其是老套餐)确实值得上车。49块钱一个月用GLM-5.1和GLM-4.7,怎么算都比按量计费划算。
如果你还没上车,建议先买个包月的试试水。觉得好用了再考虑包年。毕竟智谱的调价历史告诉我们,好价格不等人。
🙋蹲队友拼智谱 Coding Plan!
🧩国内顶流编程大模型,20+主流工具全适配,性价比拉满,
👉立即参与「拼好模」:智普拼好模,更优惠!