
sophnet/Qwen3-235B-A22B
阿里巴巴推出的旗舰级混合专家(MoE)大语言模型,主打「2350亿参数超大规模」与「220亿激活参数极致效率」
2025-07-08
输入:
$0.57/1M tokens
输出:
$1.71/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定
API介绍
Qwen3-235B-A22B 是阿里巴巴推出的旗舰级混合专家(MoE)大语言模型,主打「2350亿参数超大规模」与「220亿激活参数极致效率」,通过双模式推理架构为复杂任务提供企业级AI解决方案。
- 性能标杆:在编程(LiveCodeBench 85.7)、数学(AIME25 93.8)、通用能力(MMLU-Pro 71.9)等基准测试中超越 DeepSeek-R1、Gemini 2.5 Pro 等竞品,成为开源模型新标杆。
- 双模式智能:支持深度思考模式(复杂问题分步推理)和快速响应模式(简单问题瞬时回答),用户可通过
enable_thinking开关或/think指令动态控制“思考预算”。 - 超大规模架构:采用 MoE 技术,总参数量达 2350 亿,但每次推理仅激活 220 亿参数,兼顾性能与效率,推理成本比同类密集模型降低 70%。
- 超长上下文支持:原生支持 32K token 上下文,通过 YaRN 技术可扩展至 131K token,轻松处理超长文本任务。
───────────────────────────────────────────────────────────────────
核心能力
🧠 双轨推理引擎:动态切换深度思考与快速响应模式,复杂问题精准拆解,简单问答秒级反馈。
🚀 性能飞跃:在编程、数学、多语言任务中超越顶级竞品,成为企业级AI应用新标杆。
⚡ 高性价比架构:MoE 技术大幅降低算力消耗,激活参数量减少 90% 仍保持高性能。
📏 超长文本处理:原生支持 32K token 上下文,通过 YaRN 技术可扩展至 131K token。
Playground
登录后,探索更多精彩功能! 点击登录
API统计
API列表 (1)
API价格表
$¥ 円 ₽