最新GLM Coding优惠2025,5折大促+ 额外节日限定优惠,年付套餐仅需192元/年!

ai工具优惠码1个月前更新 admin
20 0

最新GLM Coding优惠2025,5折大促+ 额外节日限定优惠,年付套餐仅需192元/年!

简介

GLM Coding是智谱AI基于其旗舰大语言模型GLM系列(特别是GLM-4.5和GLM-4.6版本)构建的、专注于代码生成与智能编程的核心能力。该能力特色在于其强大的代码生成、理解和智能代理功能,能够从零开始构建项目或解决现有项目的复杂编码任务。其主要功能包括:在代码基准测试(如SWE-bench Verified)中表现优异,能与Claude Code、Roo Code等专业编程工具无缝集成;支持更长的上下文窗口(如GLM-4.6扩展至200K token),以处理更复杂的智能体任务;具备进阶的推理能力,支持在编码过程中调用工具,实现从需求理解到代码执行的闭环。此外,GLM-4.6V系列模型进一步引入了原生多模态工具调用能力,允许图像、截图等直接作为编程任务的输入参数,极大提升了处理视觉相关编码和复杂文档任务的效率与精度。整体上,GLM Coding旨在通过高效参数设计和强大的综合性能,为开发者提供从代码生成、调试到智能代理协作的全栈式编程辅助解决方案。

GLM Coding官网 :  https://bigmodel.cn/glm-coding

最新GLM Coding优惠码2026

>>>点击这里前往活动地址

GLM Coding Plan·跨年特惠

12.08-01.15:50% 首购立减 + 额外节日限定优惠 年付套餐仅需192元/年!

最新GLM Coding优惠2025,5折大促+ 额外节日限定优惠,年付套餐仅需192元/年!

GLM Coding Plan 详细对比表格

下面是详细的GLM Coding Plan对比 包括性能 价格,以及个竞争对手对比

功能特性Lite套餐Pro套餐Max套餐
价格首季度$9,后续$18/季度首季度$45,后续$90/季度首季度$90,后续$180/季度
月均价格$3/月$15/月$30/月
基础模型GLM-4.6GLM-4.6GLM-4.6
上下文窗口200K tokens200K tokens200K tokens
使用配额基础配额5× Lite配额4× Pro配额
响应速度标准比Lite快40-60%峰值时段性能保证
视觉理解
网络搜索
网络阅读器MCP
新功能优先体验
编码工具兼容性10+工具10+工具10+工具

与主要竞品对比

模型SWE-bench VerifiedTerminal-Bench主要特点
GLM-4.664.2%37.5%开源SOTA,性价比高
Claude 4 Opus67.8%43.2%性能领先,价格较高
Claude 4 Sonnet70.4%35.5%平衡性能与速度
GPT-4.148.6%30.3%稳定可靠
DeepSeek-R141.4%17.5%开源模型

核心优势

  1. 价格优势:从$3/月起,比竞品便宜90%
  2. 使用配额:比Claude Pro多3倍使用量
  3. 工具兼容:支持Claude Code、Roo Code、Cline等10+编码工具
  4. 开源SOTA:在开源模型中处于领先地位

适用场景

  • Lite套餐:轻量级编程任务,个人开发者
  • Pro套餐:专业开发工作,需要视觉理解和网络功能
  • Max套餐:高负载企业应用,需要稳定性能和新功能

GLM Coding Plan提供了极具竞争力的价格和性能组合,特别适合预算敏感但需要高质量AI编码助手的开发者。

最新GLM Coding优惠2025,5折大促+ 额外节日限定优惠,年付套餐仅需192元/年!

GLM Coding 是以 GLM-4.5 / GLM-4.6 系列为代表、面向程序员和技术团队的一整套「写代码用大模型」解决方案,兼顾长上下文、强推理和工程落地能力,正在快速成为国内外码农的新主力模型之一。 本文将从核心功能、实测体验、典型使用场景,到与 5 个同类 Coding LLM 的详细对比,系统解析「GLM Coding」的价值与玩法。


一、GLM Coding 是什么?

GLM Coding 可以理解为:在通用 GLM-4.x 大模型基础上,对「代码理解、生成、重构、调试」等任务做了重点优化的一类模型形态和工具链。它既包括 Zhipu AI 提供的云端 API/网页 IDE,也包括第三方工具(如本地集成、编辑器插件)里的「GLM-4.5 / GLM-4.6 Coding 模式」。 在新版本中,GLM-4.6 进一步强化了代码基准测试成绩和实战表现,被多方评价为「当前最强 Coding LLM 之一」。

相比传统自然语言大模型,「GLM Coding」突出三点:

  • 更长上下文:可以一次读进大型代码库甚至整仓库文件结构。
  • 更强编程推理:在 LiveCodeBench 等代码类 Benchmark 上有明显优势。
  • 更好的工具集成:支持函数调用、代码编辑器集成、Agent 化开发流程等。

二、核心功能与特色

1. 超长上下文与大工程适配

GLM-4.5 起步提供 128K Token 上下文,GLM-4.6 已扩展到 200K 级别,在实际工程项目中可以一次性装下完整模块甚至整站关键部分。这样在做重构、跨文件调试、API 追踪时,模型不再「忘前文」。

对独立站开发者而言,这一点非常关键,因为:

  • 后端、前端和部署脚本往往散落在多目录下;
  • 需要在数十个文件中追踪一个 Bug 或逻辑链路;
  • 需要同时理解数据库 Schema、路由和中间件配置。

长上下文让「把问题扔给模型」成为可能,而不是零碎地「贴一小段代码就想要全局答案」。

2. 强代码生成与重构能力

GLM-4.5/4.6 在多项公开代码 Benchmark 上表现优异,例如在综合代码生成基准上接近或超越主流闭源模型,同时在真实用户反馈中被认为「写出的代码更像人写的工程代码」。 其特点包括:

  • 生成代码结构清晰、函数与模块划分合理。
  • 能结合注释/需求说明,产出接近「PR 级别」的提交内容。

配合集成的「编辑-补全」能力,GLM Coding 不只是在 Chat 里输出代码块,而是可以参与到日常开发流中:自动补全函数、生成单元测试、重写低质量模块等。

3. 代码理解与调试推理

很多开发者反馈,GLM-4.6 在阅读他人项目、解释复杂业务逻辑以及定位 Bug 上表现突出,尤其是长调用链场景。它可以:

  • 通过调用栈信息 + 错误日志,推断可能的异常原因。
  • 从多文件中抽取与 Bug 相关的代码段,给出修改建议。
  • 对脆弱设计(如循环依赖、隐式共享状态)提出改进思路。

这背后与 GLM 系列在推理和「工具化 Agent 能力」上的统一设计有关:底层模型被训练为在复杂任务中保持稳定链式推理,而不只是一味补全字符串。

4. 函数调用与 Agent 能力

GLM-4.x 系列强调「Reasoning + Coding + Agent」一体化,可通过 Function Calling / Tool Calling 与外部工具协同,如执行单元测试、运行脚本、调用构建流水线等,从而形成「半自动化开发 Agent」。

典型用法包括:

  • 让 Agent 自动修改代码后运行测试,循环直到全部通过。
  • 基于 issue 描述自动生成修复分支和 MR 草稿。
  • 构建「代码评审助理」,在 PR 中自动发现潜在问题。

对于独立站开发者,这意味着可以把一部分机械性工作(修复简单 Bug、写文档、重构重复逻辑)交给 Agent,自己专注在产品和业务逻辑。


最新GLM Coding优惠2025,5折大促+ 额外节日限定优惠,年付套餐仅需192元/年!

三、GLM Coding 的真实测评体验

本节从「开发流程实战」视角,分场景看 GLM Coding 的表现:产品脚手架搭建、特性开发、重构与性能优化、Bug 调试与测试生成、文档与知识沉淀。

1. 搭建独立站脚手架

在从零搭建一个独立站(Next.js + NestJS + Postgres)的过程中,GLM Coding 通常可以:

  • 一次性给出较完整的技术栈选择与目录结构建议。
  • 自动生成基础 CRUD、认证中间件、SEO 友好的路由结构。
  • 提供 Dockerfile、docker-compose、部署到 Vercel 或自建服务器的配置模板。

实测中,如果把需求描述写得足够清晰(包括业务域、目标用户、预期流量、预算等),GLM-4.6 输出的项目初版结构通常只需要少量手工调整就能投入验证。其在 TypeScript + React 生态中的代码风格整体较为现代,适配当前主流最佳实践。

2. 业务特性开发与接口设计

在迭代独立站业务功能(例如优惠券系统、积分系统、多语言支持)时,GLM Coding 在以下方面很有用:

  • 帮忙梳理领域模型:给出 Entity、Aggregate、Value Object 的划分建议。
  • 根据现有代码风格生成新接口,避免风格不统一。
  • 自动生成 Swagger/OpenAPI 文档,方便后续前后端联调。

与一些更偏「自然语言聊天」的模型不同,GLM 对接口幂等性、安全校验(如权限验证、中间件链路)往往会有主观建议,能提前暴露潜在安全问题。用户在 Reddit 等社区中也多次提到,GLM-4.6 在「安全性和工程严谨性」上表现不错。

3. 重构、性能优化与代码卫生

面对一个历史包袱较重的项目时,GLM Coding 的长上下文 + 强代码理解能力特别适用:

  • 可以先让它「阅读」一到多个关键模块,总结架构问题。
  • 对重复逻辑、过长函数、复杂条件判断给出重构建议。
  • 定位潜在性能瓶颈(多余 IO 操作、N+1 查询、无缓存策略等)并给出优化方案。

在性能调优场景中,如果提供监控数据(如慢查询日志、APM 报告),模型可以结合代码做较为全面的分析,甚至建议添加指标埋点及报警策略,使得「问题分析 + 代码修改」形成闭环。

4. Bug 调试与测试生成

GLM Coding 在「给定报错栈 + 相关代码片段」的前提下,定位问题的速度往往非常快,尤其在:

  • 异常堆栈跨越多文件、多中间件场景;
  • 前端状态管理与后端接口逻辑纠缠场景;
  • 多线程/异步调用竞态问题。

LiveCodeBench 等基准专门测试模型在「自修复和执行理解」上的能力,GLM 系列在这些维度上表现优于部分竞品,也验证了其实战定位能力。 此外,它能够自动生成覆盖关键路径的单元测试和集成测试,兼容 Jest、Vitest、pytest、JUnit 等主流测试框架,帮助独立站在有限人力下提升代码质量。

5. 文档、注释与知识沉淀

在长期维护独立站的过程中,「知识沉淀」常被忽视。GLM Coding 有助于:

  • 从代码自动生成模块级、接口级设计说明文档。
  • 把历史 PR、Issue 整理成「架构演进记录」。
  • 将分散在 README、Wiki、代码注释中的内容统一为一份「开发手册」。

这对于团队扩张、项目交接(例如出售站点、引入外包)价值巨大,也让后续再使用 GLM 阅读项目时更高效,因为连文档都已经是模型生成/优化过的高质量结构。


最新GLM Coding优惠2025,5折大促+ 额外节日限定优惠,年付套餐仅需192元/年!

四、GLM Coding 的典型场景玩法

1. 独立站从 0–1 的「联合搭建」

一个实用流程是:

  1. 用 GLM 帮你做需求分析与产品定义(User Story、用例图)。
  2. 让它设计技术栈与目录结构,并生成基础框架代码。
  3. 在每个迭代周期,以「任务清单」方式驱动:每个任务均包含需求说明、验收标准和现有代码链接。
  4. 通过 Agent 或工具调用,让模型代为生成代码、运行测试、修复简单报错。

这种「联合搭建」可以将个人开发者从繁琐脚手架工作中解放出来,把时间更多投入在增长、内容、转化优化上。GLM 在这套流程里扮演「资深全栈 + 自动化脚手架」角色。

2. 老项目重构与技术债治理

对存量项目,可以让 GLM 执行如下流程:

  • 先做一次「架构体检报告」:根据目录和关键文件,总结设计风格与问题。
  • 针对每个问题(如循环依赖、耦合过高)设计可执行的重构方案。
  • 分批次对模块进行重写,并自动生成测试保证行为一致。

由于 GLM 能读取大范围上下文,这类重构不再需要「人工口头讲架构」给模型听,而是直接把仓库内容输入,让其自身归纳理解,从而在「不破坏业务逻辑」前提下改进结构。

3. 多语言站点与跨栈协作

对于希望做多语种独立站的团队,GLM 一方面擅长生成多语言内容(SEO 文案、多语言路由),另一方面也擅长处理前端 + 后端 + 部署脚本的跨栈问题。它可以:

  • 帮忙规划 i18n 架构(Next.js i18n / react-intl / vue-i18n 等方案权衡)。
  • 生成多语言静态资源文件与动态切换逻辑。
  • 协助编写用于海外部署(如 Cloudflare Workers、国外 VPS)的 CI/CD 配置。

最新GLM Coding优惠2025,5折大促+ 额外节日限定优惠,年付套餐仅需192元/年!

五、与 5 个同类 Coding LLM 的详细对比

选取当前被广泛讨论、适合编程场景的 5 个模型/系列,与 GLM Coding 做对比:

  • DeepSeek Coder
  • Qwen2.5-Coder
  • Code Llama / Llama 代码家族
  • StarCoder2
  • Codestral

下表侧重 Coding 能力和实战体验,而非通用聊天表现。数据综合公开 Benchmark、厂商说明与 2025 年开发者社区反馈。

1. 模型能力对比总览

维度GLM Coding(GLM-4.5/4.6)DeepSeek CoderQwen2.5-CoderCode Llama 系列StarCoder2Codestral
定位通用 + 强推理 + Coding/Agent 一体强代码生成与本地部署综合性能最均衡的开源 Coder 之一主流开源代码模型家族偏工程补全与 IDE 体验侧重速度与工程效率
上下文长度128K–200K 级别,云端主打长上下文常见开源权重多为 16K–32K多数版本支持 32K–128K16K–32K 为主多为 16K32K 左右
推理能力强,统一设计面向复杂 Agent 场景在代码推理上表现好,通用推理略逊强,特别在 SQL/数据相关任务上成绩突出中等,视具体参数和微调任务中等偏上,偏向工程补全中等,强调在速度下的可用性
代码基准成绩多个代码 Benchmark 接近或超越 GPT-4 系列,综合表现极佳针对代码基准有很强成绩,尤其在 Python多个基准上接近甚至超越 GPT-4o,在 SQL 方面尤为突出在传统 CodeXGLUE 等基准上有不错成绩在补全类任务表现较好各类代码 Bench 中成绩中上
本地可用性以云端 API 为主,也可通过代理或打包模型在本地运行强,本地部署体验好,社区生态活跃开源版本丰富,兼顾本地与云端强,Ollama 等一键部署强,IDE 插件支持丰富可本地运行,侧重与特定平台集成
生态与文档完整 API、控制台与中文文档,对国内开发者友好社区文档活跃,部分中文资料不足阿里生态支撑,中文文档较好英文资料丰富,中文依赖社区社区维护为主,中文资料较少资料相对分散,偏向英文社区

2. GLM Coding vs DeepSeek Coder

  • 能力侧重:

    • GLM Coding 更偏「通用 + 强推理 + 长上下文 + Agent」,适合处理复杂业务逻辑、长链路 Bug、跨文件重构等场景。
    • DeepSeek Coder 在 Python、算法题和日常代码生成上非常好用,尤其在本地部署和 GPU 资源有限的条件下优势明显。
  • 实战体验:

    • 当任务涉及大量自然语言分析、需求讨论、架构设计时,GLM 能保持对话上下文更完整,给出「从产品到代码」的连贯方案。
    • 如果只是写一段脚本、实现某个算法题,DeepSeek Coder 本地推理速度快、成本低,是极佳选择。

适合独立站博主的搭配:

  • 用 GLM 做「项目级别」的设计、重构、Bug 调试;
  • 用 DeepSeek Coder 做「脚本级、小任务级」的快速生成和验证。

3. GLM Coding vs Qwen2.5-Coder

  • Benchmark 表现:
    Qwen2.5-Coder 在多项代码 Benchmark(如 HumanEval、MBPP、各种 SQL 基准)上成绩极为亮眼,有些任务甚至超过 GPT-4o 和其他大厂闭源模型。 GLM Coding 在综合性能与推理场景中表现突出,更强调「代码 + Agent + 通用推理」的统一。

  • 特点差异:

    • Qwen2.5-Coder 的开源版本很多,可以在不同参数规模(7B–32B)间权衡性能与资源,占据了「本地可用开源 Coder」的高地。
    • GLM Coding 提供的是一条更完整的云端体验路线,对于中文开发者而言,从控制台、文档到示例更友好,且与企业级需求对接顺畅。

选型建议:

  • 偏「自建本地算力 + 重度开源」:优先考虑 Qwen2.5-Coder,结合 GLM 做云端补充。
  • 偏「快速上线产品 + 关注中文生态与企业支持」:GLM Coding 更合适成为主力模型。

4. GLM Coding vs Code Llama 系列

  • 定位:
    Code Llama 是 Meta 推出的开源代码模型家族,拥有多种尺寸和针对不同语言/任务的版本,在 Ollama 等工具中一键即可使用。

  • 对比点:

    • GLM Coding 在中文场景、长上下文和 Agent 能力上明显优于 Code Llama,更适合作为中文开发者的主力模型。
    • Code Llama 的优势是「完全开源、许可宽松、生态广」,在国外开发圈子里作为默认本地模型很常见,适合对国内合规不敏感、偏英语项目的团队。

实际组合:

  • 若已有 Code Llama 本地环境,可在「重逻辑任务」上调用 GLM 云端;
  • 对于资源有限又强需求中文 + 长上下文时,可直接以 GLM 为主,而非在 Code Llama 上硬凿中文场景。

5. GLM Coding vs StarCoder2

  • StarCoder2 强项:

    • 作为 BigCode 社区出品,StarCoder2 在工程补全、IDE 集成与真实开源仓库上的适配非常好。
    • 在连续补全与「似乎很懂 GitHub 风格代码」的体验方面,广受好评。
  • GLM 差异点:

    • GLM 在「解释代码、做架构建议、帮助写文档」等任务上更像一个资深工程师,而不仅是补全工具。
    • 在长上下文和跨文件、跨模块推理上更稳定,适合做「项目顾问」。

适用策略:

  • 把 StarCoder2 当作「智能自动补全引擎」,嵌入 IDE 内;
  • 把 GLM 当作「项目级顾问 + 设计师 + 架构师」,在 Chat 工具中进行高层协作。

6. GLM Coding vs Codestral

  • Codestral 特点:

    • 强调速度和工程效率,在一些代码生成 Benchmark 上排名靠前,同时推理速度较快,适合在大型工程 IDE 中实时补全。
  • 与 GLM 的对比:

    • GLM 更看重「深度推理 + 复杂 Agent 工作流」,适合需要自动跑测试、执行部署脚本、做多步决策的场景。
    • Codestral 更像「高速引擎」,GLM 更像「能做复杂决策的 AI 工程师」。

六、独立站开发者如何用好 GLM Coding

1. 工作流设计建议

为了最大化发挥 GLM Coding 的价值,建议按「三层结构」设计工作流:

  • 上层:产品与架构层

    • 使用 GLM 讨论用户需求、商业模式、信息架构、SEO 策略。
    • 让模型帮你写「产品说明书」「技术选型文档」。
  • 中层:代码与测试层

    • 在每个新特性开始前,让 GLM 先「草图」接口设计与模块划分。
    • 开发中,使用 GLM 快速生成实现代码和测试用例。
  • 底层:运维与数据层

    • 使用 GLM 生成/优化部署脚本、监控告警、备份策略。
    • 出现异常时,将日志和相关文件扔给 GLM 先做初步诊断。

通过这三层协同,可以把 GLM 真正融入独立站全生命周期,而不是只在写代码时偶尔调用一下。

2. 提示词与上下文组织技巧

想让 GLM Coding 给出更专业、更符合工程实践的输出,需要在提示词和上下文组织上做一些优化:

  • 明确角色:例如「你是资深全栈工程师,熟悉 Next.js、NestJS、Postgres 和大规模流量的运维」;
  • 提供约束:如「必须遵循 ESLint 规则」「不使用 any 类型」「优先使用函数式组件」;
  • 分阶段提问:先要设计文档,再要接口定义,最后再要具体实现代码。

另外,善用「代码片段 + 错误日志 + 期望行为描述」的组合,比单独复制报错要更高效,能让模型更快收敛到正确解释和修复方案。

3. 与其他模型组合使用

如前文对比所示,GLM Coding 并非孤立存在,而是可以与其他模型形成「模型矩阵」:

  • GLM:负责复杂推理、架构设计、跨模块重构;
  • DeepSeek Coder / StarCoder2:负责本地快速补全与小段代码生成;
  • Qwen2.5-Coder:在 SQL / 数据相关任务、需要本地强编码模型时登场;
  • Code Llama / Codestral:在已有生态和工具链中补足开源需求。

这种「多模型协作」将是未来专业开发团队的常态,而 GLM Coding 在其中更像一个中心枢纽,负责把自然语言、业务需求与具体实现串联起来。


七、对中文独立站博主的特别价值

对于专注独立站中文博客写作和开发的博主群体,GLM Coding 兼具以下优势:

  • 中文理解与输出一流:无论是技术文档、博客文章,还是开发手册,都可以用中文自然表达,再按需翻译成英文或其他语言。
  • 兼容内容与代码:既能写代码,又能写文案,甚至能帮你输出整套「技术+商业」结合的内容,比如教程、案例分析、增长心得。
  • 生态和合规更友好:在国内环境下,GLM 平台从账号、计费到企业集成都更顺畅,适合作为长期基础设施来建设。

如果目标是「做一个长期可运营的独立站 + 技术内容矩阵」,那么 GLM Coding 不仅是写代码的模型,更是整个知识生产与工程实践的「中枢大脑」。


以上就是围绕「GLM Coding」的功能、测评体验及与 5 个主流 Coding LLM 的系统对比与思路梳理,希望能为你搭建与运营独立站提供一个可落地的模型选型与实践框架。

\

常见问题

 

GLM-4.6 发布前已经购买过套餐的用户,是否可以使用最新模型?
可以。之前购买过 Lite/Pro/Max 套餐的用户,均可使用套餐在 Coding 场景下畅享我们最新的模型。其中针对手动修改过模型配置的用户,需要在自定义配置(如 Claude Code 中的 ~/.claude/settings.json)中,手动修改模型为“GLM-4.6”,其他用户无需操作将自动升级。
套餐的用量额度大概有多少?
· Lite 套餐:每 5 小时最多约 120 次 prompts,相当于 Claude Pro 套餐用量的 3 倍
· Pro 套餐:每 5 小时最多约 600 次 prompts,相当于 Claude Max(5x) 套餐用量的 3 倍
· Max 套餐:每 5 小时最多约 2400 次 prompts,相当于 Claude Max(20x) 套餐用量的 3 倍
从可消耗 tokens 量来看,每次 prompt 预计可调用模型 15-20 次,每月总计可用总量高达几十亿到数百亿tokens,折算下来仅为 API 价格的 0.1 折,极具性价比。

注:上述次数为预估值,实际可用量会因项目复杂度、代码库大小以及是否启用自动接受等因素而有所不同。

套餐可用于哪些编码工具?
已支持 Claude Code、Roo Code、Kilo Code、Cline、OpenCode、Crush、Goose、Factory 等 10+ 编程工具,操作步骤可以参考我们的 接入教程。如您所用的编程工具如 Cursor 不在上述所列清单中,您可尝试将 Base URL 添加/替换为 https://open.bigmodel.cn/api/coding/paas/v4,具体操作步骤详见 教程文档。
所有 Coding 工具共用您所订阅套餐的使用额度。
套餐额度耗尽后,系统是否会继续消耗我的资源包/账户余额?
不会。订阅套餐后,在套餐支持的编程工具中调用 GLM-4.6,无需配置即会默认使用套餐额度,当套餐额度耗尽后,需要等待下一个 5 小时周期恢复额度,系统不会继续消耗您的其他资源包/账户余额。且购买了 Coding 套餐的用户,在已支持的 Coding 工具中仅能通过套餐的额度进行调用,不能再单独以 API 形式调用。
哪个套餐支持专属的视觉理解、联网搜索、网页读取 MCP 工具?
所有等级套餐均支持调用,但 Lite 套餐仅包含少量额度尝鲜。
具体调用额度如下:
· Lite 套餐:联网搜索 MCP 和网页读取 MCP 每月合计 1 百次,达到上限后当月无法调用;视觉理解 MCP 共享套餐的 5 小时最大 prompt 资源池,达到上限后会在 5 小时周期后恢复额度
· Pro 套餐:联网搜索 MCP 和网页读取 MCP 每月合计 1 千次,达到上限后当月无法调用;视觉理解 MCP 共享套餐的 5 小时最大 prompt 资源池,达到上限后会在 5 小时周期后恢复额度
· Max 套餐:联网搜索 MCP 和网页读取 MCP 每月合计 4 千次,达到上限后当月无法调用;视觉理解 MCP 共享套餐的 5 小时最大 prompt 资源池,达到上限后会在 5 小时周期后恢复额度
哪个套餐可以享有智谱AI输入法,可以使用多久?
所有套餐用户均限时享「智谱AI输入法」使用权益,在套餐有效期内不限量使用。产品当前已支持 MacOS 与 Windows 双系统。
具体使用方式为,使用和套餐账号「相同手机号」登录智谱AI输入法,至多等待几分钟权益即可生效,未绑定手机号的可在账号设置中绑定。产品详情见说明文档。
是否可以升级套餐/延长续费周期?
是的。您可以在【我的编程套餐】页面升级套餐/延长续费周期,选择要升级的目标套餐后,支付差额,新套餐将立即生效。
如何取消订阅自动续费?
您可以在【我的编程套餐】页面取消订阅。请务必在下一个扣费日至少3天前取消,以避免自动续费。取消后,当前周期继续有效,到期后不再续费。
“拼好模”所获赠金奖励在哪里查看?
您所获得赠金奖励均可以在【“拼好模”活动弹窗-你的赠金回馈】查看,也可前往【财务-充值明细】中查看详情。

© 版权声明

相关文章

暂无评论

暂无评论...