
qwen3-235b-a22b-instruct-2507
超大规模混合专家(MoE)指令微调语言模型
2025-07-30
输入:
$0.29/1M tokens
输出:
$1.143/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定
API介绍
Qwen3-235B-A22B-Instruct-2507 是阿里巴巴通义实验室推出的超大规模混合专家(MoE)指令微调语言模型,核心定位为“顶尖通用能力 + 企业级可靠性”的旗舰级 AI 基座。
- 超大 MoE 架构:总参数达 235B,激活参数仅 22B,在 MMLU、C-Eval、GSM8K、HumanEval 等权威评测中达到开源模型领先水平
- 128K 超长上下文:原生支持长文本输入,适用于复杂文档分析、多轮深度对话、跨段落推理等高阶任务
- 指令遵循极致优化:基于高质量人类偏好数据精细对齐,精准响应格式、风格、多约束等细粒度指令要求
- 多语言与代码强化:深度优化中文语境理解,同时支持英文、日语、法语等数十种语言及主流编程语言生成
───────────────────────────────────────────────────────────────────
核心能力
🧠 专家级综合推理:在数学证明、技术方案撰写、法律条款解读等复杂任务中展现类专家级逻辑链
⚡ 高吞吐低延迟服务:MoE 架构实现高性能与低成本平衡,单卡即可支撑高并发企业级 API 服务
🌍 全球化内容生成:输出自然流畅,兼顾文化适配与专业术语,适用于国际业务与本地化场景
🛡️ 安全合规可控:支持私有化部署、内容过滤、敏感词拦截与审计日志,满足金融、政务、医疗等高监管行业需求
Playground
登录后,探索更多精彩功能! 点击登录
API统计
API列表 (1)
API价格表
$¥ 円 ₽