Nos complace presentar EmbeddingGemma, un nuevo modelo de integración abierto que ofrece el mejor rendimiento de su clase para su tamaño. Diseñado específicamente para la IA en el dispositivo, su diseño altamente eficiente de 308 millones de parámetros te permite crear aplicaciones utilizando técnicas como la generación aumentada de recuperación (RAG) y la búsqueda semántica que se ejecutan directamente en tu hardware. Ofrece integraciones privadas de alta calidad que funcionan en cualquier lugar, incluso sin conexión a Internet.
Link to Youtube Video (visible only when JS is disabled)
EmbeddingGemma genera incorporaciones, que son representaciones numéricas, en este caso, de texto (como oraciones y documentos), transformándolas en un vector de números para representar el significado en un espacio de alta dimensión. Cuanto mejores sean las incorporaciones, mejor será la representación del lenguaje, con todos sus matices y complejidades.
Al crear un flujo de procesamiento RAG, tienes dos etapas clave: recuperar el contexto relevante en función de la entrada de un usuario y generar respuestas basadas en ese contexto. Para realizar la recuperación, puedes generar la incorporación de la indicación de un usuario y calcular la similitud con las incorporaciones de todos los documentos de tu sistema. Esto te permite obtener los pasajes más relevantes para la consulta de un usuario. Luego, estos pasajes se pueden pasar a un modelo generativo, como Gemma 3, junto con la consulta original del usuario, para generar una respuesta contextualmente relevante, como comprender que necesitas el número del carpintero para obtener ayuda con las tablas del piso dañadas.
Para que este flujo de procesamiento RAG sea efectivo, la calidad del paso de recuperación inicial es fundamental. Las incorporaciones deficientes recuperarán documentos irrelevantes, lo que dará lugar a respuestas inexactas o sin sentido. Aquí es donde se destaca el rendimiento de EmbeddingGemma, proporcionando las representaciones de alta calidad necesarias para impulsar aplicaciones precisas y confiables en el dispositivo.
EmbeddingGemma ofrece una comprensión de texto de última generación para su tamaño, con un rendimiento particularmente sólido en la generación de incorporaciones multilingües.
Consulta cómo se compara EmbeddingGemma con otros modelos de incorporación populares:
El modelo de 308 millones de parámetros se compone de aproximadamente 100 millones de parámetros del modelo y 200 millones de parámetros de incorporación. Está diseñado para ofrecer un alto rendimiento y un consumo mínimo de recursos.
EmbeddingGemma permite a los desarrolladores crear aplicaciones en el dispositivo, flexibles y centradas en la privacidad. Genera incorporaciones de documentos directamente en el hardware del dispositivo, lo que ayuda a garantizar que los datos confidenciales del usuario estén seguros. Utiliza el mismo tokenizador que Gemma 3n para el procesamiento de texto, lo que reduce la huella de memoria en aplicaciones RAG. Descubre las nuevas funciones de EmbeddingGemma, por ejemplo:
Además, si estos ejemplos no abarcan lo que necesitas, puedes ajustar EmbeddingGemma para un dominio, tarea o idioma en particular con nuestra guía de inicio rápido.
Nuestro objetivo es proporcionar las mejores herramientas para tus necesidades. Con este lanzamiento, ahora tienes un modelo de incorporación para cualquier aplicación.
Priorizamos hacer que EmbeddingGemma sea asequible desde el primer día y nos asociamos con desarrolladores para permitir el soporte en plataformas y frameworks populares. Comienza a crear hoy con la misma tecnología que potenciará las experiencias en las plataformas de Google, como Android, con las herramientas que ya usas.