zai-org/glm-4.7-flash

zai-org/glm-4.7-flash

智谱AI推出的GLM-4.7系列的高效版语言模型,兼顾性能与效率
2026-01-23
语言大模型
Model capability: thinkingModel capability: function_call
输入:
$0.0715/1M tokens
输出:
$0.429/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定

API介绍

GLM-4.7-Flash 是智谱AI推出的免费级高性能文本语言模型,核心定位为“在 30B 级别实现 SOTA 性能与高效率平衡的轻旗舰”,面向 Agentic Coding、深度研究与高频协作场景提供强大支持。

  • 升级点:作为 GLM-4.7 系列的高效版本,在 SWE-bench Verified、τ²-Bench 等基准中取得同尺寸开源模型领先表现
  • 适用场景:Agentic Coding(端到端可运行代码生成)、Deep Research(多源信息整合)、前端/PPT 自动生成、角色扮演创作、智能客服等
  • 产品价值:支持 200K 上下文与 128K 输出,复杂任务开发与部署成本显著降低
  • 能力强化:编码能力大幅增强,可自主完成需求拆解、多技术栈整合;前端审美优化,PPT/网页生成更接近“即用级”
  • 交互体验:多轮对话中稳定保持上下文,对复杂问题持续澄清目标,更像一名“问题解决型伙伴”

───────────────────────────────────────────────────────────────────

核心能力

长上下文高效处理:200K 输入窗口 + 智能上下文缓存,长对话不卡顿、不遗忘

🧠 深度思考模式:支持启用 thinking 模式,实现“先思考、再行动”的推理链,提升复杂任务准确性

🛠️ 强大工具协同:原生支持 Function Call 与 MCP 协议,可灵活调用外部工具与数据源

🎨 前端审美升级:布局、配色、组件样式更具美感,默认方案减少反复微调成本

📊 结构化输出:支持 JSON 等格式,便于系统直接解析,无缝集成至自动化流程

💬 流式实时响应:支持流式输出,逐字返回结果,打造低延迟、高沉浸的交互体验

───────────────────────────────────────────────────────────────────

测试数据

  • 在 SWE-bench Verified、τ²-Bench 等主流基准测试中,GLM-4.7-Flash 达到同尺寸开源模型的 SOTA 水平。
  • 具备领先的前端与后端开发能力,在内部编程实测中表现优异。
  • 通用能力强,推荐用于中文写作、翻译、长文本处理、情感表达及角色扮演等场景。

Description

Playground

登录后,探索更多精彩功能! 点击登录

API统计

API列表 (1)

API描述接口地址请求方法稳定性参数说明
Chat(PPIO派欧云)
POST
稳定
查看详情

API价格表

$
模型说明上下文官网原价302.AI价格

zai-org/glm-4.7-flash

-
200000

输入$0.0715 / 1M tokens
输出$0.429 / 1M tokens

输入$0.0715/ 1M tokens
输出$0.429/ 1M tokens
原价