
gemini-2.0-flash-lite
API介绍
基本信息
模型名称:Gemini 2.0 Flash-Lite(model code: gemini-2.0-flash-lite)
设计目的:针对大规模文本输出与高吞吐量任务进行成本优化和效率优化 — 是目前 Gemini 系列中“成本效率最高”的模型变体。
核心特性
大上下文视窗:支持长达 1,048,576 tokens 的输入上下文窗口(约 100 万 tokens),适合处理大段文本或长文档。
多模态输入(Multimodal Input):支持文本、音频、图片、视频等多种输入类型(虽然输出为文本),便于集成多种内容来源。
结构化输出 & 函数调用能力:支持结构化输出,支持通过 API 函数调用(Function Calling),方便与程式化系统/后端服务整合。
成本优化 & 低延迟:作为 Flash-Lite 的设计目标,是在保持合理模型能力的同时,极大降低使用成本和响应延迟,以适用于大规模/频繁调用场景。
技术亮点
性能优于前代:与前代 Gemini 1.5 Flash 相比,Flash-Lite 在多个基准测试(reasoning, factuality, math, SQL 转换等)上均表现更优或相当稳定,尤其适合大规模文本处理与结构化任务。
简化计价/计费模型:Flash-Lite 与 2.0 Flash 均使用“单一价格 per input type”的定价机制,不再区分短/长上下文请求。与混合上下文需求的旧版相比,在多数使用场景中可能降低总体成本。
适合大规模、高吞吐量场景:由于其成本和效率优化,Flash-Lite 特别适合需要处理海量文本、批量生成内容、摘要、分类、日志处理、搜索索引构建等任务,是企业级、批量场景的理想选项。
注: 现已支持Gemini原生格式进行调用
相关测评:
《o3-mini vs. Gemini 2.0 pro vs. DeepSeek-R1实测对比》
Playground
登录后,探索更多精彩功能! 点击登录