gemini-2.0-flash-lite

gemini-2.0-flash-lite

速度最快的Gemini 2.0模型,提高了成本效益并缩短了延迟时间
2025-06-16
语言大模型
Model capability: image
输入:
$0.075/1M tokens
输出:
$0.3/1M tokens
大额采购联系客户经理享专属优惠
稳定性
稳定

API介绍

基本信息

模型名称:Gemini 2.0 Flash-Lite(model code: gemini-2.0-flash-lite) 

设计目的:针对大规模文本输出与高吞吐量任务进行成本优化和效率优化 — 是目前 Gemini 系列中“成本效率最高”的模型变体。

核心特性

大上下文视窗:支持长达 1,048,576 tokens 的输入上下文窗口(约 100 万 tokens),适合处理大段文本或长文档。

多模态输入(Multimodal Input):支持文本、音频、图片、视频等多种输入类型(虽然输出为文本),便于集成多种内容来源。

结构化输出 & 函数调用能力:支持结构化输出,支持通过 API 函数调用(Function Calling),方便与程式化系统/后端服务整合。

成本优化 & 低延迟:作为 Flash-Lite 的设计目标,是在保持合理模型能力的同时,极大降低使用成本和响应延迟,以适用于大规模/频繁调用场景。

技术亮点

性能优于前代:与前代 Gemini 1.5 Flash 相比,Flash-Lite 在多个基准测试(reasoning, factuality, math, SQL 转换等)上均表现更优或相当稳定,尤其适合大规模文本处理与结构化任务。

简化计价/计费模型:Flash-Lite 与 2.0 Flash 均使用“单一价格 per input type”的定价机制,不再区分短/长上下文请求。与混合上下文需求的旧版相比,在多数使用场景中可能降低总体成本。

适合大规模、高吞吐量场景:由于其成本和效率优化,Flash-Lite 特别适合需要处理海量文本、批量生成内容、摘要、分类、日志处理、搜索索引构建等任务,是企业级、批量场景的理想选项。


注: 现已支持Gemini原生格式进行调用

相关测评:

《o3-mini vs. Gemini 2.0 pro vs. DeepSeek-R1实测对比》

《谷歌再发布实验模型Gemini 2.0 Flash Thinking,实测中能否正确解出考研数学题?!》

《谷歌突袭发布新模型Gemini 2.0 Flash实验版,原来这才是性价比之王?!》

Playground

登录后,探索更多精彩功能! 点击登录

API统计

API列表 (4)

API描述接口地址请求方法稳定性参数说明
v1beta(官方格式-聊天)
POST
稳定
查看详情
Chat(聊天)
POST
稳定
查看详情
Chat(分析图片)
POST
稳定
查看详情
Chat(图片生成)
POST
稳定
查看详情

API价格表

$
模型说明上下文官网原价302.AI价格

gemini-2.0-flash-lite

-
2000000

输入$0.075 / 1M tokens
输出$0.3 / 1M tokens

输入$0.075/ 1M tokens
输出$0.3/ 1M tokens
原价