glm-4.7-flashx

glm-4.7-flashx

GLM-4.7的轻量高速版,兼顾性能与性价比的语言模型
2026-01-20
语言大模型
Model capability: thinkingModel capability: function_call
输入:
$0.0715/1M tokens
输出:
$0.429/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定

API介绍

GLM-4.7-FlashX 是智谱推出的轻量高速级文本语言模型,核心定位为“面向 Agentic Coding 与高频交互场景的高效推理引擎”,在保持 GLM-4.7 核心能力的同时极致优化响应速度与资源效率。

升级点:作为 GLM-4.7 系列的轻量高速版,专为低延迟、高并发场景优化,推理速度显著提升

适用场景:适配 Agentic Coding、智能客服、实时前端生成、多轮协作对话等对响应速度敏感的场景

产品价值:保留工具调用、结构化输出等关键能力,降低部署成本,轻松集成至现有系统

性能优势:支持 200K 上下文窗口与 128K 最大输出,兼顾长程任务处理与快速响应

开发友好:原生支持流式输出、Function Call 与 MCP 工具调用,无缝对接智能体工作流

───────────────────────────────────────────────────────────────────

核心能力

极速响应:轻量架构实现毫秒级首 token 延迟,高频交互更流畅

🧠 智能思考:提供多种思考模式,灵活适配编码、问答、创作等任务需求

🛠️ 强大工具协同:支持 Function Call 与 MCP 协议,可调用外部工具与数据源扩展能力边界

💬 流式交互体验:实时逐字输出,打造类人对话节奏,提升用户沉浸感

🗃️ 长上下文高效处理:200K 输入窗口 + 智能上下文缓存,长对话不卡顿

🧾 结构化输出:原生支持 JSON 等格式,便于后端系统直接解析,减少二次处理成本

───────────────────────────────────────────────────────────────────

效果展示(基于GLM-4.7)


Playground

登录后,探索更多精彩功能! 点击登录

API统计

API列表 (1)

API描述接口地址请求方法稳定性参数说明
Chat(智谱GLM)
POST
稳定
查看详情

API价格表

$
模型说明上下文官网原价302.AI价格

glm-4.7-flashx

glm-4.7-flashx
200000

输入$0.0715 / 1M tokens
输出$0.429 / 1M tokens

输入$0.0715/ 1M tokens
输出$0.429/ 1M tokens
原价