
glm-4.7-flashx
GLM-4.7的轻量高速版,兼顾性能与性价比的语言模型
2026-01-20
输入:
$0.0715/1M tokens
输出:
$0.429/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定
API介绍
GLM-4.7-FlashX 是智谱推出的轻量高速级文本语言模型,核心定位为“面向 Agentic Coding 与高频交互场景的高效推理引擎”,在保持 GLM-4.7 核心能力的同时极致优化响应速度与资源效率。
升级点:作为 GLM-4.7 系列的轻量高速版,专为低延迟、高并发场景优化,推理速度显著提升
适用场景:适配 Agentic Coding、智能客服、实时前端生成、多轮协作对话等对响应速度敏感的场景
产品价值:保留工具调用、结构化输出等关键能力,降低部署成本,轻松集成至现有系统
性能优势:支持 200K 上下文窗口与 128K 最大输出,兼顾长程任务处理与快速响应
开发友好:原生支持流式输出、Function Call 与 MCP 工具调用,无缝对接智能体工作流
───────────────────────────────────────────────────────────────────
核心能力
⚡ 极速响应:轻量架构实现毫秒级首 token 延迟,高频交互更流畅
🧠 智能思考:提供多种思考模式,灵活适配编码、问答、创作等任务需求
🛠️ 强大工具协同:支持 Function Call 与 MCP 协议,可调用外部工具与数据源扩展能力边界
💬 流式交互体验:实时逐字输出,打造类人对话节奏,提升用户沉浸感
🗃️ 长上下文高效处理:200K 输入窗口 + 智能上下文缓存,长对话不卡顿
🧾 结构化输出:原生支持 JSON 等格式,便于后端系统直接解析,减少二次处理成本
───────────────────────────────────────────────────────────────────
效果展示(基于GLM-4.7)
Playground
登录后,探索更多精彩功能! 点击登录
API统计
API列表 (1)
API价格表
$¥ 円 ₽