
sophnet/Qwen3-30B-A3B-Instruct-2507
高效混合专家(MoE)指令微调语言模型
2025-09-09
输入:
$0.1/1M tokens
输出:
$0.4/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定
API介绍
Qwen3-30B-A3B-Instruct-2507 是阿里巴巴通义实验室推出的高效混合专家(MoE)指令微调语言模型,核心定位为“小激活、大能力、高性价比”的企业级通用推理主力。
- 精巧 MoE 架构:总参数约 30B,激活参数仅 3B(A3B),在保持强大综合能力的同时显著降低计算开销与推理延迟
- 128K 超长上下文:原生支持超长文本输入,适用于长文档摘要、多轮复杂对话、跨段落信息整合等场景
- 指令遵循深度优化:经过高质量人类偏好数据对齐,在格式控制、风格模仿、多约束任务中表现精准可靠
- 多语言与代码能力均衡:强化中文语境理解,同时支持英文、日语、法语等主流语言及 Python、JavaScript 等编程语言
───────────────────────────────────────────────────────────────────
核心能力
⚡ 极致能效比:以接近 7B 稠密模型的资源消耗,实现 30B 级别的语言理解与生成能力,单位算力产出更高
🧠 稳定任务执行:在 C-Eval、MMLU、HumanEval 等评测中表现优异,适合对确定性要求高的生产环境
🌍 中英双语自然表达:输出地道流畅,兼顾专业术语与文化语境,适用于内容创作、智能客服、办公自动化等场景
🛡️ 企业安全合规:支持私有化部署、内容过滤与审计日志,满足金融、政务、教育等行业监管需求
Playground
登录后,探索更多精彩功能! 点击登录
API统计
API列表 (1)
API价格表
$¥ 円 ₽