La familia de Gemma se expande con modelos diseñados para desarrolladores e investigadores

ABR 12, 2024
Tris Warkentin Director, Product Management
Jane Fine Senior Product Manager

En febrero, anunciamos Gemma, nuestra familia de modelos abiertos ligeros y de última generación desarrollados a partir de la misma investigación y tecnología utilizadas para crear los modelos Gemini. La increíble respuesta de la comunidad, entre la que se incluyen impresionantes variantes ajustadas, notebooks de Kaggle, integración en herramientas y servicios, recetas para RAG utilizando bases de datos como MongoDB y mucho más, fue realmente inspiradora.

Hoy, nos complace presentar nuestra primera ronda de soluciones que agregamos a la familia de Gemma y que nos permitirán ampliar las posibilidades para que los desarrolladores de AA innoven de manera responsable: CodeGemma para tareas de finalización y generación de código, así como seguimiento de instrucciones, y RecurrentGemma, una arquitectura de eficiencia optimizada para la experimentación de investigación. Además, compartimos algunas actualizaciones de Gemma y de los términos dirigidos a mejoras basadas en comentarios invaluables que recibimos de la comunidad y nuestros socios.


Presentamos las dos primeras variantes de Gemma

CodeGemma: finalización, generación de código y chat para desarrolladores y empresas

Al aprovechar la base de nuestros modelos de Gemma, CodeGemma ofrece a la comunidad capacidades de codificación potentes pero livianas. Los modelos CodeGemma están disponibles como una variante preentrenada 7B que se especializa en tareas de finalización y generación de código, una variante ajustada a instrucciones 7B para chat de código y seguimiento de instrucciones, y una variante preentrenada 2B para la finalización rápida de código que puede almacenarse en su computadora local. Los modelos CodeGemma tienen varias ventajas:

  • Finalización y generación de código inteligente: completa líneas y funciones e incluso genera bloques enteros de código, sin importar si estás trabajando localmente o aprovechando los recursos de la nube. 

  • Mayor precisión: al estar entrenados con 500 mil millones de tokens de datos (principalmente en inglés) de documentos web, matemática y código, los modelos CodeGemma generan código que no solo es sintácticamente más correcto sino también semánticamente significativo, lo que reduce los errores y el tiempo de depuración. 

  • Dominio de varios lenguajes: será un asistente de codificación invaluable para Python, JavaScript, Java y otros lenguajes populares. 

  • Flujos de trabajo optimizados: integra un modelo de CodeGemma en tu entorno de desarrollo para redactar menos repeticiones y centrarte en el código interesante y diferenciado más importante, más rápido.
CodeGemma integrated within an existing AI dev project with
En esta tabla se compara el rendimiento de CodeGemma con otros modelos similares en tareas de finalización de código, tanto de una como de varias líneas.

Para obtener más información sobre CodeGemma, consulta nuestro informe o pruébalo con esta guía de inicio rápido.


RecurrentGemma: inferencia eficiente y rápida con tamaños de lote más grandes para investigadores

RecurrentGemma es un modelo técnicamente distintivo que aprovecha las redes neuronales recurrentes y la atención local para mejorar la eficiencia de la memoria. Si bien logra un rendimiento de puntaje de referencia similar al modelo Gemma 2B, la arquitectura única de RecurrentGemma tiene varias ventajas:

  • Menor uso de memoria: los requisitos de memoria más bajos permiten la generación de muestras más largas en dispositivos con memoria limitada, como GPU o CPU individuales. 

  • Mayor rendimiento: debido a su menor uso de memoria, RecurrentGemma puede realizar inferencias a tamaños de lote significativamente más grandes y, así, generar una cantidad mucho más importante de tokens por segundo (especialmente cuando se generan secuencias largas). 

  • Innovación en la investigación: RecurrentGemma muestra un modelo no transformador que logra un alto rendimiento y, de esta manera, destaca así los avances en la investigación de aprendizaje profundo. 
Graph showing maximum thoughput when sampling from a prompt of 2k tokens on TPUv5e
En este gráfico, se ilustra cómo RecurrentGemma mantiene la velocidad de muestreo independientemente de la longitud de la secuencia, mientras que los modelos basados en transformadores como Gemma se ralentizan a medida que las secuencias se alargan.

Para comprender la tecnología subyacente, consulta nuestro documento. Para realizar una exploración práctica, prueba este notebook, en el que se muestra cómo optimizar el modelo.


Desarrollado sobre la base de Gemma, ahora con mayores capacidades

Las nuevas variantes del modelo, guiadas por los mismos principios de los modelos originales de Gemma, ofrecen lo siguiente:

  • Disponibilidad abierta: con la disponibilidad abierta para todos y las condiciones de uso flexibles, fomenta la innovación y la colaboración. 

  • Capacidades de alto rendimiento y eficiencia: mejora las capacidades de los modelos abiertos con experiencia en dominios específicos de código y diseño optimizado para una finalización y generación excepcionalmente rápidas. 

  • Diseño responsable: nuestro compromiso con la IA responsable sirve para garantizar que los modelos ofrezcan resultados seguros y confiables. 

  • Flexibilidad para diversos software y hardware:

- CodeGemma y RecurrentGemma: desarrollados con JAX y compatibles con JAX, PyTorch, Hugging Face Transformers y Gemma.cpp. Esto permite la experimentación local y la implementación rentable en varios hardware, como laptops, computadoras de escritorio, GPU NVIDIA y Google Cloud TPU.  

- CodeGemma: además, es compatible con Keras, NVIDIA NeMo, TensorRT-LLM, Optimum-NVIDIA, MediaPipe y está disponible en Vertex AI. 

- RecurrentGemma: la compatibilidad con todos los productos mencionados estará disponible en las próximas semanas.


Actualización de Gemma 1.1

Junto con las nuevas variantes del modelo, lanzamos Gemma 1.1, que incluye mejoras de rendimiento. Además, escuchamos los comentarios de los desarrolladores, corregimos errores y actualizamos nuestros términos para brindar más flexibilidad.


Comienza hoy

A partir de hoy, estas primeras variantes del modelo de Gemma están disponibles en varios lugares del mundo, en Kaggle, Hugging Face y Vertex AI Model Garden. Aquí te mostramos cómo empezar:

  • Explora las opciones de integración: consulta las guías y los recursos para integrar los modelos con tus herramientas y plataformas favoritas.

  • Experimenta e innova: agrega una variante del modelo de Gemma a tu próximo proyecto y explora sus capacidades. 


Te invitamos a probar los modelos CodeGemma y RecurrentGemma y a que compartas tus comentarios sobre Kaggle. Juntos, podemos darle forma al futuro de la creación y la comprensión de contenidos impulsados por IA.