Incorporación de Gemini: potencia la ingeniería de contexto y de RAG

30 DE JULIO DE 2025
Vishal Dharmadhikari Product Solutions Engineer

Desde que anunciamos la disponibilidad general del modelo de texto de incorporación de Gemini, vimos a los desarrolladores adoptarlo rápidamente para crear aplicaciones avanzadas de IA. Más allá de los casos de uso tradicionales como la clasificación, la búsqueda semántica y la generación aumentada de recuperación (RAG), muchos ahora utilizan una técnica llamada ingeniería de contexto para brindar a los agentes de IA un contexto operativo completo. Aquí, las incorporaciones son cruciales, ya que identifican e integran de manera eficiente información vital, como documentos, historial de conversaciones y definiciones de herramientas, directamente en la memoria de trabajo de un modelo.

En los siguientes ejemplos, se muestra cómo las organizaciones de todas las industrias ya están aprovechando el modelo de incorporación de Gemini para impulsar sistemas sofisticados.


La incorporación de Gemini en acción


Desata capacidades en la inteligencia de contenido global

Box, una plataforma inteligente de administración de contenido, está integrando la incorporación de Gemini para un caso de uso crítico: responder preguntas y extraer información de documentos complejos. Durante sus evaluaciones, gemini-embedding-001 encontró la respuesta correcta más del 81% de las veces, mostrando un aumento del 3.6% en la recuperación en comparación con otros modelos de incorporación. Más allá de este aumento en el rendimiento, el soporte multilingüe incorporado de nuestro modelo es un avance prometedor para sus usuarios globales, lo que permite a Box AI acceder a información de contenido en diferentes idiomas y regiones.

Box AI - Gemini Embedding

Mejora de la precisión en el análisis de datos financieros

La empresa de tecnología financiera re:cap utiliza las incorporaciones para clasificar grandes volúmenes de transacciones bancarias B2B. Midió el impacto de gemini-embedding-001 mediante la comparación con los modelos anteriores de Google (text-embedding-004 y text-embedding-005) en un conjunto de datos de 21,500 transacciones y descubrió un aumento en la puntuación F1 del 1.9% y el 1.45%, respectivamente. La puntuación F1, que equilibra la precisión y la recuperación de un modelo, es crucial para las tareas de clasificación. Demuestra cómo un modelo capaz como el de incorporación de Gemini impulsa directamente ganancias de rendimiento significativas, lo que ayuda a re:cap a ofrecer información de liquidez más clara a sus clientes.

re:cap - Gemini Embedding

Logra la precisión semántica en la exhibición legal

Everlaw, una plataforma que brinda RAG verificable para ayudar a los profesionales del derecho a analizar grandes volúmenes de documentos para exhibición legal, requiere la coincidencia semántica precisa de millones de textos especializados. A través de puntos de referencia internos, Everlaw descubrió que gemini-embedding-001 es el mejor, ya que logra un 87% de precisión a la hora de mostrar respuestas relevantes de 1.4 millones de documentos llenos de términos legales complejos y específicos de la industria, superando a los modelos Voyage (84%) y OpenAI (73%). Además, la propiedad Matryoshka de la incorporación de Gemini permite a Everlaw utilizar representaciones compactas, enfocando la información esencial en menos dimensiones. Esto da como resultado una pérdida de rendimiento mínima, costos de almacenamiento reducidos y más eficiencia en la recuperación y la búsqueda.

Everlaw - Gemini Embedding

Mejora la búsqueda de base de código para desarrolladores

Roo Code, un asistente de codificación de IA de código abierto, utiliza el modelo de incorporación de Gemini para potenciar la indexación de base de código y la búsqueda semántica. Los desarrolladores que usan Roo Code necesitan tener a disposición una búsqueda que ayude a comprender la intención, no solo la sintaxis, ya que el asistente interactúa a través de múltiples archivos como un compañero de equipo humano. Al emparejar gemini-embedding-001 con Tree-sitter para la división lógica del código, Roo Code ofrece resultados altamente relevantes, incluso para consultas imprecisas. Tras las pruebas iniciales, descubrieron que la incorporación de Gemini mejoró significativamente su búsqueda de código basada en LLM, haciéndola más flexible, precisa y alineada con los flujos de trabajo de los desarrolladores.

ROO Code - Gemini Embedding

Ofrece apoyo personalizado para el bienestar mental

El compañero de bienestar de IA de Mindlid aprovecha gemini-embedding-001 para comprender el historial conversacional, lo que permite obtener información contextual y significativa que se adapta en tiempo real a los usuarios. Se documentó un rendimiento impresionante: una latencia constante de menos de un segundo (mediana: 420 ms) y una tasa de recuperación medible del 82% de los 3 mejores, un aumento del 4% en la recuperación con respecto a los 3 pequeños integradores de texto de OpenAI. Esto demuestra cómo la incorporación de Gemini mejora la relevancia y la velocidad del soporte de su IA al proporcionar la información más pertinente.

Mindlid - Gemini Embedding

Mejora del contexto y la eficiencia de los asistentes de IA

Interaction Co. está desarrollando Poke, un asistente de correo electrónico de IA que automatiza tareas y extrae información de Gmail. Poke utiliza la integración de Gemini para dos funciones clave: la recuperación de "recuerdos" del usuario y la identificación de correos electrónicos relevantes para mejorar el contexto. Al integrar gemini-embedding-001, el modelo de lenguaje de Poke recupera datos con mayor velocidad y precisión. Se reportó una reducción significativa del 90.4% en el tiempo promedio al integrar 100 correos electrónicos en comparación con Voyage-2, ya que completó la tarea en solo 21.45 segundos.

Poke - Gemini Embedding

La base para futuros agentes

A medida que los sistemas de IA se vuelvan más autónomos, su efectividad se verá determinada por la calidad del contexto que les proporcionemos. Los modelos de integración de alto rendimiento como gemini-embedding-001 son un componente fundamental para crear la próxima generación de agentes que puedan razonar, recuperar información y actuar en nuestro nombre.

Para dar los primeros pasos con las incorporaciones, consulta la documentación de la API de Gemini.


Los desarrolladores proporcionaron las métricas de rendimiento. Google no las confirmó de forma independiente.