qwen2.5-7b-instruct-1m

qwen2.5-7b-instruct-1m

对比 Qwen2,Qwen2.5 获得了显著更多的知识,并在编程能力和数学能力方面有了大幅提升,上下文长度支持1M Token
2025-01-30
语言大模型
Model capability: function_call
输入:
$0.072/1M tokens
输出:
$0.143/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定

API介绍

Qwen2.5-7B-Instruct-1M 是阿里通义 Qwen2.5 系列轻量级长上下文文本指令微调模型,核心定位为 “低门槛超长文本处理助手”,以轻量参数实现 100 万 token 级上下文支持,平衡长文本能力与部署成本。

  • 超长上下文支持:原生适配 1010000 tokens 输入,可生成 8192 tokens 文本,轻松处理长篇报告、代码库等超长篇内容
  • 轻量高效架构:7.62B 总参数,Transformer 架构 + GQA 注意力机制,集成 RoPE、SwiGLU 等优化技术
  • 全能力兼容:继承知识储备、多语言(29 + 种)、基础编码与数学能力,强化长文本信息提取与逻辑连贯
  • 场景灵活:适配长文档总结、超长对话、代码审计,262144 tokens 内处理精度稳定,中小规模硬件可适配

───────────────────────────────────────────────────────────────────

核心能力

📚 超长文本解析:精准提取100万token级文本关键信息、逻辑关系与核心结论

🧠 长上下文推理:基于跨段落关联信息完成问答、分析与总结,保持基础逻辑能力

🌍 多语言适配:支持29+种语言长文本翻译、解读与分析

📊 结构化处理:理解超长表格与多模块文档,生成整合分析结论

Playground

登录后,探索更多精彩功能! 点击登录

API统计

API列表 (1)

API描述接口地址请求方法稳定性参数说明
Chat(Qwen2.5)
POST
稳定
查看详情

API价格表

$
模型说明上下文官网原价302.AI价格

qwen2.5-7b-instruct-1m

-
1000000

输入$0.072 / 1M tokens
输出$0.143 / 1M tokens

输入$0.072/ 1M tokens
输出$0.143/ 1M tokens
原价