Incorporação de texto de última geração por meio da API Gemini

MAR 07, 2025
Logan Kilpatrick Senior Product Manager Gemini API and Google AI Studio
Zach Gleicher Product Manager Google DeepMind
Parashar Shah Product Manger Google Cloud

[Imagem criada pelo Google com a geração de imagens nativa do Gemini 2.0 Flash]


Hoje, estamos disponibilizando o novo modelo de texto experimental Gemini Embedding (gemini-embedding-exp-03-07)1 na API Gemini.

Treinado no próprio modelo Gemini, esse modelo de incorporação herdou a compreensão de linguagem e o contexto com nuance do Gemini, o que o torna aplicável a uma ampla gama de usos. Esse novo modelo de incorporação supera nosso modelo anterior de última geração (text-embedding-004), alcança a mais alta classificação no placar Multilingual do Massive Text Embedding Benchmark (MTEB) e traz novos recursos, como o comprimento maior de tokens de entrada!


Nosso modelo de incorporação de texto mais potente de todos

Treinamos nosso modelo para ser extremamente generalizado, oferecendo um desempenho excepcional em vários domínios, como finanças, ciências, jurídico, de pesquisa e muito mais. Ele funciona com eficácia diretamente, eliminando a necessidade de ajustes extensivos para tarefas específicas.

O placar do MTEB (Multilingual) classifica os modelos de incorporação de texto em diversas tarefas, como recuperação e classificação, para fornecer um comparativo de mercado abrangente para a comparação de modelos. Nosso modelo Gemini Embedding alcança uma pontuação média (de tarefa) de 68,32, uma margem superior a 5,81 em relação ao próximo modelo concorrente.

MTEB Leaderboard text model performance ranking
Nosso novo modelo de incorporação de texto do Gemini (gemini-embedding-exp-03-07) alcança pontuações altas no placar do MTEB (Multilingual). (Clique com o botão direito do mouse para abrir a imagem em uma nova guia).

Por que usar incorporações?

Da criação de sistemas inteligentes de geração aumentada via recuperação (RAG, na sigla em inglês) e de recomendação até a classificação de texto, a capacidade dos LLMs de entender o significado por trás do texto é crucial. As incorporações são, muitas vezes, fundamentais para a criação de sistemas mais eficientes, reduzindo o custo e a latência e, ao mesmo tempo, fornecendo resultados geralmente melhores do que os sistemas de correspondência de palavras-chave. As incorporações capturam o significado semântico e o contexto por meio de representações numéricas dos dados. Dados com significados semânticos similares têm incorporações que estão mais próximas umas das outras. As incorporações permitem uma ampla gama de aplicações, incluindo:

  • Recuperação eficiente: encontre documentos relevantes em grandes bancos de dados, como para recuperação de documentos legais ou pesquisa empresarial, comparando as incorporações de consultas e documentos.

  • Geração aumentada via recuperação (RAG): melhore a qualidade e a relevância do texto gerado recuperando informações contextualmente relevantes e incorporando-as ao contexto de um modelo.

  • Agrupamento e categorização: agrupe textos similares, identificando tendências e temas em seus dados.

  • Classificação: categorize automaticamente o texto com base em seu conteúdo, como análise de sentimento ou detecção de spam.

  • Similaridade entre textos: identifique conteúdo duplicado, possibilitando tarefas como eliminação de duplicação de páginas da Web ou detecção de plágio.

Você pode saber mais sobre incorporações e casos de uso comuns em IA nos documentos da API Gemini.


Comece a usar o Gemini Embedding

Os desenvolvedores já podem acessar nosso novo modelo experimental Gemini Embedding por meio da API Gemini. Ele é compatível com o ponto de extremidade embed_content existente.

from google import genai
 
client = genai.Client(api_key="GEMINI_API_KEY")
 
result = client.models.embed_content(
        model="gemini-embedding-exp-03-07",
        contents="How does alphafold work?",
)
 
print(result.embeddings)

Além da qualidade aprimorada em todas as dimensões, o Gemini Embedding também traz:

  • Limite de 8 mil tokens de entrada. Melhoramos nosso comprimento de contexto em relação aos modelos anteriores, permitindo a incorporação de grandes blocos de texto, código ou outros dados.

  • Três mil dimensões de saída. Incorporações de alta dimensão com quase quatro vezes mais tokens do que os modelos de incorporação anteriores.

  • Aprendizado de representações Matryoshka (MRL, na sigla em inglês): o MRL permite truncar as 3 mil dimensões originais para reduzir a escala vertical de acordo com o custo de armazenamento desejado.

  • Suporte expandido a idiomas. Duplicamos o número de idiomas com suporte para mais de 100.

  • Modelo unificado. Este modelo supera a qualidade de nossos modelos multilíngues específicos de tarefas, somente em inglês e específicos de código anteriores.


Embora esteja em fase experimental e com capacidade limitada no momento, esta versão oferece uma oportunidade de explorar antecipadamente os recursos do Gemini Embedding. Como em todos os modelos experimentais, ele está sujeito a mudanças, e estamos trabalhando para lançar uma versão estável e geralmente disponível nos próximos meses. Adoraríamos receber o seu feedback no formulário de feedback sobre incorporações.



1 Na Vertex AI, o mesmo modelo é disponibilizado por meio do ponto de extremidade "text-embedding-large-exp-03-07". Para disponibilidade geral, a nomenclatura será consistente.