
sophnet/Qwen3-30B-A3B-Thinking-2507
高效混合专家(MoE)推理模型
2025-09-09
输入:
$0.1/1M tokens
输出:
$0.4/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定
API介绍
Qwen3-30B-A3B-Thinking-2507 是阿里巴巴通义实验室推出的高效混合专家(MoE)推理模型,核心定位为“轻量级深度思考引擎”,专为需要多步逻辑推导但受限于算力资源的场景设计。
- 精巧 MoE 架构:总参数约 30B,激活参数仅 3B(A3B),以接近 7B 稠密模型的计算成本实现高阶推理能力
- Thinking 模式原生集成:自动启用链式思维(Chain-of-Thought),对复杂问题进行分步拆解、中间验证与结论整合
- 128K 超长上下文:支持长文本输入,适用于多文档分析、复杂指令解析与深度对话场景
- 多语言与代码强化:在中文、英文及主流编程语言任务中表现稳健,兼顾自然语言理解与结构化输出
───────────────────────────────────────────────────────────────────
核心能力
🧠 自主分步推理:面对“解释量子纠缠并用 Python 模拟”等复合任务,能先解释原理、再生成可运行代码
⚡ 高能效比推理:低激活参数带来高吞吐与低延迟,适合边缘设备、高并发 Agent 或成本敏感型应用
🧩 工具协同友好:可调用计算器、代码解释器或搜索模块验证中间结果,确保最终输出可靠
🛡️ 安全可控输出:内置内容过滤机制,支持审计日志与格式约束,满足企业合规部署需求
Playground
登录后,探索更多精彩功能! 点击登录
API统计
API列表 (1)
API价格表
$¥ 円 ₽