[Imagem criada pelo Google com a geração de imagens nativa do Gemini 2.0 Flash]
Hoje, estamos disponibilizando o novo modelo de texto experimental Gemini Embedding (gemini-embedding-exp-03-07)1 na API Gemini.
Treinado no próprio modelo Gemini, esse modelo de incorporação herdou a compreensão de linguagem e o contexto com nuance do Gemini, o que o torna aplicável a uma ampla gama de usos. Esse novo modelo de incorporação supera nosso modelo anterior de última geração (text-embedding-004), alcança a mais alta classificação no placar Multilingual do Massive Text Embedding Benchmark (MTEB) e traz novos recursos, como o comprimento maior de tokens de entrada!
Treinamos nosso modelo para ser extremamente generalizado, oferecendo um desempenho excepcional em vários domínios, como finanças, ciências, jurídico, de pesquisa e muito mais. Ele funciona com eficácia diretamente, eliminando a necessidade de ajustes extensivos para tarefas específicas.
O placar do MTEB (Multilingual) classifica os modelos de incorporação de texto em diversas tarefas, como recuperação e classificação, para fornecer um comparativo de mercado abrangente para a comparação de modelos. Nosso modelo Gemini Embedding alcança uma pontuação média (de tarefa) de 68,32, uma margem superior a 5,81 em relação ao próximo modelo concorrente.
Da criação de sistemas inteligentes de geração aumentada via recuperação (RAG, na sigla em inglês) e de recomendação até a classificação de texto, a capacidade dos LLMs de entender o significado por trás do texto é crucial. As incorporações são, muitas vezes, fundamentais para a criação de sistemas mais eficientes, reduzindo o custo e a latência e, ao mesmo tempo, fornecendo resultados geralmente melhores do que os sistemas de correspondência de palavras-chave. As incorporações capturam o significado semântico e o contexto por meio de representações numéricas dos dados. Dados com significados semânticos similares têm incorporações que estão mais próximas umas das outras. As incorporações permitem uma ampla gama de aplicações, incluindo:
Você pode saber mais sobre incorporações e casos de uso comuns em IA nos documentos da API Gemini.
Os desenvolvedores já podem acessar nosso novo modelo experimental Gemini Embedding por meio da API Gemini. Ele é compatível com o ponto de extremidade embed_content
existente.
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
result = client.models.embed_content(
model="gemini-embedding-exp-03-07",
contents="How does alphafold work?",
)
print(result.embeddings)
Além da qualidade aprimorada em todas as dimensões, o Gemini Embedding também traz:
Embora esteja em fase experimental e com capacidade limitada no momento, esta versão oferece uma oportunidade de explorar antecipadamente os recursos do Gemini Embedding. Como em todos os modelos experimentais, ele está sujeito a mudanças, e estamos trabalhando para lançar uma versão estável e geralmente disponível nos próximos meses. Adoraríamos receber o seu feedback no formulário de feedback sobre incorporações.
1 Na Vertex AI, o mesmo modelo é disponibilizado por meio do ponto de extremidade "text-embedding-large-exp-03-07". Para disponibilidade geral, a nomenclatura será consistente.