持续为您推出最新模型,包括经过改进的 Gemini 2.5 Flash 和 Flash-Lite 版本

2025年9月25日
Shrestha Basu Mallick Product Google DeepMind
Sid Lall Product Google DeepMind
Zach Gleicher Product Google DeepMind
Kate Olszewska Product Google DeepMind

今天,我们将发布可在 Google AI StudioVertex AI 上使用的 Gemini 2.5 Flash 和 2.5 Flash-Lite 更新版本,其目的在于继续提供更出色的质量,同时提高效率。

Intelligence vs End-to-End response time
相较于当前的稳定模型,Gemini 2.5 Flash 和 2.5 Flash-Lite 在质量和速度方面均有所提升
Output token efficiency
在输出令牌数量(因此产生的成本)方面,Gemini 2.5 Flash-Lite 减少 50%,而 Gemini 2.5 Flash 减少 24%

更新后的 Gemini 2.5 Flash-Lite

Gemini 2.5 Flash-Lite 的最新版本基于以下三大主题进行训练和构建:

  • 更出色的指令遵循能力:该模型在遵循复杂指令和系统提示方面明显更加优异。

  • 减少冗余:该模型现能生成更精简的答案,这是使高吞吐量应用降低令牌成本和延迟的关键因素(见上图)。

  • 更强大的多模态&翻译功能:此项更新可提供更精准的音频转写、更出色的图像理解,以及经改善的翻译质量。


您可以使用以下模型字符串,即刻开始测试此版本:gemini-2.5-flash-lite-preview-09-2025


更新后的 Gemini 2.5 Flash

这款最新的 2.5 Flash 模型在我们持续收到反馈的两个关键领域得到了改进:

  • 加强对代理工具的使用:我们改进了模型使用工具的方式,从而使其在更复杂的多步骤代理应用中实现了更出色的性能。该模型在关键代理基准方面展现出显著的提升,其中,该版本在 SWE-Bench Verified 测试代理上的得分相较于上个版本高了 5% (48.9% → 54%)。

  • 更加高效:经过我们深思熟虑,该模型现在能够使用更少的令牌实现更高质量的输出,从而降低延迟和成本(见上图),因此其成本效益显著提高。

我们已经收到了来自早期测试人员的正面反馈。正如自主 AI 代理商 Manus 的联合创始人兼首席科学家 Yichao ‘Peak’ Ji 所述:“新的 Gemini 2.5 Flash 模型将速度和智能完美融合。我们对内部基准的评估表明,该模型在长期代理任务上实现了 15% 的性能飞跃,并且其出色的成本效益使 Manus 能够扩展到前所未有的水平,从而推进我们发掘人类潜能的使命。”

您可以使用以下模型字符串,即刻开始测试此预览版:gemini-2.5-flash-preview-09-2025


开始使用 Gemini 进行构建

在过去的一年中,我们了解到您可以通过我们发布的预览版模型,对我们最新的改进和创新进行测试,提供反馈,并充分利用 Gemini 打造生产就绪体验。本次发布的版本并非旨在直接升级为全新的稳定版本,但将帮助我们打造未来的稳定版本,让我们不断对其进行迭代,并为您带来更卓越的 Gemini 体验。

为了让您能更轻松地访问我们的最新模型,同时减少对追踪长模型字符串名称的需求,我们还为每个模型系列引入了 -latest 别名。此别名始终指向我们最新的模型版本,因此,您无需为每个版本更新代码即可尝试全新功能。您可以使用以下字符串访问全新预览版:

  • gemini-flash-latest

  • gemini-flash-lite-latest


为了确保您有足够的时间测试新模型,在更新或弃用早于 -latest 版本的特定版本之前,我们始终会提前两周通过电子邮件通知您。这些只是模型别名,模型的速率限制、成本和可用功能可能会因版本而异。

对于需要更高稳定性的应用,请继续使用 gemini-2.5-flashgemini-2.5-flash-lite

我们会不断发掘 Gemini 的无限可能,而此版本只是朝着这个方向迈出的又一步。我们即将分享更多精彩内容,与此同时,祝大家尽情享受构建的乐趣!