Disponibilidade geral do Gemini 2.5 Flash-Lite estável

22 DE JULHO DE 2025
Logan Kilpatrick Group Product Manager
Zach Gleicher Product Manager

Hoje, estamos lançando a versão estável do Gemini 2.5 Flash-Lite, nosso modelo mais rápido e de menor custo (US$ 0,10 por um milhão de entradas e US$ 0,40 por um milhão de saídas) da família de modelos Gemini 2.5. Criamos o Gemini 2.5 Flash-Lite para oferecer mais inteligência por um custo menor, com recursos de raciocínio nativos que podem ser opcionalmente ativados para casos de uso mais exigentes. Um aprimoramento do 2.5 Pro e do 2.5 Flash, esse modelo completa nosso conjunto de modelos 2.5 que estão prontos para uso em produção em escala.


Nosso modelo 2.5 mais econômico e rápido de todos

Comparative table showing capabilities of Gemini 2.5 Flash-Lite, 2.5 Flash, and 2.5 Pro

O Gemini 2.5 Flash-Lite atinge um equilíbrio entre desempenho e custo sem comprometer a qualidade, principalmente em tarefas sensíveis à latência, como tradução e classificação.

Veja como ele se destaca:

  • A velocidade mais alta da categoria: o Gemini 2.5 Flash-Lite tem latência mais baixa do que o 2.0 Flash-Lite e o 2.0 Flash em uma ampla amostra de prompts.

  • Econômico: ele é nosso modelo 2.5 mais econômico, com custo de US$ 0,10 por um milhão de tokens de entrada e US$ 0,40 por um milhão de tokens de saída, permitindo lidar com grandes volumes de solicitações por um custo menor. Também reduzimos o preço da entrada de áudio em 40% em relação à versão de pré-lançamento.

  • Inteligente e pequeno: o Gemini 2.5 Flash-Lite demonstra qualidade geral superior à do 2.0 Flash-Lite em uma ampla gama de comparativos de mercado, incluindo codificação, matemática, ciências, raciocínio e compreensão multimodal.

  • Completo: ao criar com o 2.5 Flash-Lite, você tem acesso a uma janela de contexto de um milhão de tokens, orçamentos de pensamento controláveis e suporte a ferramentas nativas, como Embasamento com a Pesquisa Google, Execução de código e Contexto de URL.


Gemini 2.5 Flash-Lite em ação

Desde o lançamento do 2.5 Flash-Lite, já vimos algumas implantações de muito sucesso. Estas são algumas de nossas favoritas:

  • A Satlyt está criando uma plataforma de computação espacial descentralizada que transformará a forma como os dados de satélites são processados e utilizados no resumo em tempo real da telemetria em órbita, no gerenciamento autônomo de tarefas e na análise da comunicação entre satélites. A velocidade do 2.5 Flash-Lite possibilitou uma redução de 45% na latência para diagnósticos críticos a bordo e uma redução de 30% no consumo de energia em comparação com os modelos de linha de base.

  • A HeyGen usa a IA para criar avatares para conteúdo de vídeo e aproveita o Gemini 2.5 Flash-Lite para automatizar o planejamento de vídeos, analisar e otimizar conteúdo e traduzir vídeos em mais de 180 idiomas. Isso permite proporcionar experiências globais personalizadas para os usuários.

  • A DocsHound transforma demonstrações de produtos em documentação usando o Gemini 2.5 Flash-Lite para processar vídeos longos e extrair milhares de capturas de tela com baixa latência. Isso transforma vídeos em documentação abrangente e dados de treinamento para agentes de IA muito mais rapidamente do que com os métodos tradicionais.

  • A Evertune ajuda as marcas a entenderem como elas são representadas nos vários modelos de IA. O Gemini 2.5 Flash-Lite significa uma verdadeira revolução para eles, acelerando drasticamente a análise e a geração de relatórios. Seu alto desempenho permite digitalizar e sintetizar rapidamente grandes volumes de saída de modelos para fornecer insights dinâmicos e oportunos aos clientes.


Você pode começar a usar o 2.5 Flash-Lite especificando "gemini-2.5-flash-lite" em seu código. Se você estiver usando a versão de pré-lançamento, poderá mudar para o "gemini-2.5-flash-lite", que é o mesmo modelo subjacente. Planejamos remover o alias de pré-lançamento do Flash-Lite em 25 de agosto.


Quer começar a criar agora mesmo? Experimente a versão estável do Gemini 2.5 Flash-Lite no Google AI Studio e na Vertex AI.