
inclusionAI/Ring-flash-2.0
来自阿里推出的高性能思考模型
2025-09-19
输入:
$0.143/1M tokens
输出:
$0.572/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定
API介绍
Ring-flash-2.0 是一个基于 Ling-flash-2.0-base 深度优化的高性能思考模型。它采用混合专家(MoE)架构,总参数量为 100B,但在每次推理中仅激活 6.1B 参数。该模型通过独创的 icepop 算法,解决了 MoE 大模型在强化学习(RL)训练中的不稳定性难题,使其复杂推理能力在长周期训练中得以持续提升。Ring-flash-2.0 在数学竞赛、代码生成和逻辑推理等多个高难度基准测试中取得了显著突破,其性能不仅超越了 40B 参数规模以下的顶尖稠密模型,还能媲美更大规模的开源 MoE 模型及闭源的高性能思考模型。尽管该模型专注于复杂推理,它在创意写作等任务上也表现出色。此外,得益于其高效的架构设计,Ring-flash-2.0 在提供强大性能的同时,也实现了高速推理,显著降低了思考模型在高并发场景下的部署成本。
Playground
登录后,探索更多精彩功能! 点击登录
API统计
API列表 (1)
API价格表
$¥ 円 ₽