Más segura y multimodal: IA responsable con Gemma

MAR 12, 2025
Dana Kurniawan Product Manager
Wenjun Zeng Software Engineer
Ryan Mullins Software Engineer

El año pasado, lanzamos ShieldGemma, un paquete de modelos de clasificadores de contenido de seguridad basados en Gemma 2 y diseñados para detectar contenido dañino en las entradas y salidas de texto de los modelos de IA. Hoy presentamos Gemma 3 y nos entusiasma seguir consolidando nuestra base de IA responsable con el anuncio de ShieldGemma 2.

Link to Youtube Video (visible only when JS is disabled)

ShieldGemma 2, basado en Gemma 3, es un modelo de 4,000 millones de parámetros que verifica la seguridad de tus imágenes sintéticas y naturales con categorías clave para ayudarte a crear conjuntos de datos y modelos sólidos. Con esta incorporación a la familia de modelos Gemma, los investigadores y desarrolladores ahora pueden minimizar fácilmente el riesgo de diferentes tipos de contenido dañino en sus modelos:

  • Contenido sexual explícito

  • Contenido peligroso

  • Violencia
Use ShieldGemma as an input filter to any vision language model, or an an output filter of image generation models

Recomendamos utilizar ShieldGemma 2 como filtro de entrada para los modelos de lenguaje-visión o como filtro de salida de los sistemas de generación de imágenes. ShieldGemma se puede utilizar tanto en imágenes sintéticas como naturales.


¿En qué se diferencia ShieldGemma 2?

El procesamiento de contenido más allá de texto, el entrenamiento y la comprensión de la seguridad de las imágenes en modelos multimodales plantean nuevos desafíos, por lo que ShieldGemma 2 se creó para responder a una amplia variedad de estilos de imágenes diversos y matizados.

Para entrenar un modelo sólido de seguridad de imágenes, seleccionamos conjuntos de datos de entrenamiento de imágenes naturales y sintéticas, y ajustamos las instrucciones de Gemma 3 para demostrar un buen rendimiento. Comparamos las políticas de seguridad con los siguientes puntos de referencia y publicaremos un informe técnico que también incorpora puntos de referencia de terceros.

ShieldGemma 2 performance
Resultados de la evaluación basados en la puntuación F1 óptima (porcentaje; cuanto más alto, mejor) en nuestro punto de referencia interno.

ShieldGemma puede ayudarte a crear aplicaciones de imagen de IA más seguras gracias a estas cualidades:

  • Flexibilidad: carga cualquier imagen sintética o natural y edita nuestra plantilla de instrucciones para adaptarla a tus necesidades. Ajusta en Google Colab o en tu propia GPU.

  • Versatilidad: todas las herramientas compatibles con Gemma 3 son compatibles con ShieldGemma 2, incluidos los marcos de trabajo populares, como Transformers, JAX, Keras y Ollama, entre otros.

  • Colaboración: ShieldGemma es abierto por naturaleza y permite que los colaboradores de la comunidad sigan creando de manera inclusiva a medida que seguimos mejorando y desarrollando colectivamente los estándares de seguridad de la industria.

La implementación de modelos de código abierto de manera responsable depende de un esfuerzo de toda la comunidad, y esperamos explorar cómo ShieldGemma 2 se puede entregar en tamaños más pequeños, en más áreas de daño y alineado con la taxonomía multimodal de ML Commons en el futuro cercano.

Nos entusiasma seguir creando una IA multimodal segura y responsable.


Comienza hoy

  • Explora ShieldGemma 2 en nuestro sitio para desarrolladores y consulta la tarjeta de nuestro modelo para obtener más información.

  • Prueba ShieldGemma 2 en Google AI Studio, Hugging Face, Ollama y otras plataformas.


Reconocimiento al equipo

Wenjun Zeng, Ryan Mullins, Dana Kurniawan, Yuchi Liu, Mani Malek, Yiwen Song, Dirichi Ike-Njoku, Hamid Palangi, Jindong Gu, Shravan Dheep, Karthik Narashimhan, Tamoghna Saha, Joon Baek, Rick Pereira, Cai Xu, Jingjing Zhou, Aparna Joshi y Will Hawkins