gemini-2.5-flash-deepsearch

gemini-2.5-flash-deepsearch

具备高效检索与自主研究能力
2025-06-08
语言大模型
Model capability: image
输入:
$5/1M tokens
输出:
$25/1M tokens
大额采购联系客户经理享专属优惠
稳定性
不稳定

API介绍

基本信息

  • Gemini 2.5 Flash 属于Gemini 模型系列,是为“高效率、低延迟、低成本”任务优化的版本。
  • 它支持包括文本、图像、音频、视频等多种输入模态(multimodal)。
  • 该模型提供非常大的上下文窗口 — 可处理多达约 1,000,000 token 的长文本 / 长上下文输入,适合分析较大或较复杂的数据集/文档。

核心特性

  • 高速度与低成本:设计目标是成为“日常任务的高效工作马”,在响应速度和资源消耗之间达到良好平衡,非常适合大量、频繁或实时性要求高的应用场景。
  • 多模态输入理解:不只是文本,它能够对图像、音频、视频以及混合模态输入进行理解和处理,支持跨模态任务。
  • 工具/插件集成 (Tool use / function calling):在对话或任务中可以调用外部工具或自定义函数,这使它适合用于 agent 式工作流 (agentic workflows),例如检索信息、执行代码、或整合第三方数据。
  • 灵活控制“思考预算”(thinking budget):开发者可以设定模型“思考”(reasoning) 的预算 —— 控制它内部推理的 token 数量,从而在响应速度与结果质量之间灵活权衡。

技术亮点

  • 长上下文能力:1,000,000-token 的上下文窗口意味着它可以处理非常长的文档、对话或多小时视频内容,而不会因为上下文过长而“丢失”前文关键信息。
  • 多模态 + 实时性:结合文本、图像、音频、视频的输入/输出能力,使它在总结、聊天、数据提取、字幕生成、自动描述 (captioning) 等场景表现优异,且延迟低、成本合理。
  • 适合 agentic 工作流 / 多步骤推理:尽管 Flash 是偏“轻量 / 高效”版本,它仍然保留了推理、工具调用、多步逻辑处理能力,在不少基准 (benchmark) 测试中,其在 reasoning、multimodal、代码生成等任务上的表现接近其“Pro”同系版本。
  • 性价比高 / 可扩展部署:相比高端模型 (Pro),Flash 更加注重资源利用与成本控制,适用于规模化、频繁调用、或对响应速度、运行成本敏感的场景,是实际部署中高性价比的选择。


Gemini‑2.5‑Flash‑DeepSearch 引入逐步推理机制,在回答前先进行内部思考,从而提升逻辑性与准确率,并展现出类 Agent 的任务执行能力,帮助企业构建复杂的自动化工作流程。


相关测评:

《大模型排行榜第二!Gemini-2.5-flash-preview-05-20全方位对比测评》

《Gemini-2.5-pro vs. Claude-3.7-Sonnet 前端编程能力实战对决》

Playground

登录后,探索更多精彩功能! 点击登录

API统计

API列表 (1)

API描述接口地址请求方法稳定性参数说明
Chat(gemini-2.5-flash-deepsearch)
POST
不稳定
查看详情

API价格表

$
模型说明上下文官网原价302.AI价格

gemini-2.5-flash-deepsearch

-
1000000

输入$5 / 1M tokens
输出$25 / 1M tokens

输入$5/ 1M tokens
输出$25/ 1M tokens
原价