Pro/deepseek-ai/DeepSeek-V3.2

Pro/deepseek-ai/DeepSeek-V3.2

DeepSeek推出的多专家混合架构(MoE)开源大模型
2025-12-01
语言大模型
Model capability: thinkingModel capability: function_call
输入:
$0.286/1M tokens
输出:
$0.429/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定

API介绍

DeepSeek-V3.2 是 DeepSeek(深度求索) 推出的开源通用语言级 旗舰 产品,核心定位为通过极致的矩阵乘法优化与多专家混合架构(MoE),在保持极低推理成本的同时,提供超越同级别稠密模型的卓越性能。

  • 极致性价比:遵循 MIT 协议开源,权重全公开,允许商用。API 调用成本极低,是目前市场上最具成本效益的旗舰模型之一。
  • 顶级性能:在 MMLU、MATH-500 等多项基准测试中全面超越 Llama-3.1/3.2-405B,推理与编码能力达到顶尖水平,综合表现接近 GPT-4o。
  • 超大规模架构:采用 2.168万亿 总参数、4160亿 激活参数的 MoE 架构,拥有 256k 上下文长度,能够处理海量信息与复杂任务。
  • 高效推理:基于 FP8 量化技术与极致的矩阵乘法(GEMM)优化,推理速度极快,支持高并发场景下的流畅交互。
  • 多语言能力:在中文与英文任务上表现尤为出色,同时具备强大的多语言理解与生成能力,适配全球化应用场景。

───────────────────────────────────────────────────────────────────

核心能力

⚡ 极致矩阵优化

基于 FP8 与 GEMM 的极致推理优化。 通过底层算子的深度打磨,实现了极高的计算密度与吞吐量,让超大规模模型也能在有限算力下高效运行。

🧠 强大的混合专家

采用 2.168T MoE 架构,激活参数高达 416B。 在保持模型容量巨大的同时,仅需激活少量专家即可完成任务,实现了“大模型”与“低成本”的完美平衡。

🌐 卓越的推理与编码

在 MATH-500 与代码生成任务中刷新 SOTA。 具备顶级的逻辑推演与代码编写能力,无论是复杂数学证明还是全栈软件开发,都能提供高质量的解决方案。

Playground

登录后,探索更多精彩功能! 点击登录

API统计

API列表 (1)

API描述接口地址请求方法稳定性参数说明
Chat(硅基流动)
POST
稳定
查看详情

API价格表

$
模型说明上下文官网原价302.AI价格

Pro/deepseek-ai/DeepSeek-V3.2

-
160000

输入$0.286 / 1M tokens
输出$0.429 / 1M tokens

输入$0.286/ 1M tokens
输出$0.429/ 1M tokens
原价