Mais seguro e multimodal: IA responsável com o Gemma

MAR 12, 2025
Dana Kurniawan Product Manager
Wenjun Zeng Software Engineer
Ryan Mullins Software Engineer

No ano passado, lançamos o ShieldGemma, um pacote de modelos de classificador de conteúdo de segurança baseado no Gemma 2, projetado para detectar conteúdo prejudicial em entradas e saídas de texto de modelos de IA. Com a estreia do Gemma 3, hoje, estamos expandindo nossa base de IA responsável com o anúncio do ShieldGemma 2.

Link to Youtube Video (visible only when JS is disabled)

O ShieldGemma 2, baseado no Gemma 3, é um modelo com quatro bilhões de parâmetros (4B) que verifica a segurança de imagens sintéticas e naturais em relação às principais categorias para ajudar a criar conjuntos de dados e modelos robustos. Com essa adição à família de modelos Gemma, pesquisadores e desenvolvedores agora podem facilmente minimizar o risco de conteúdo prejudicial em modelos em áreas-chave de danos:

  • Conteúdo sexualmente explícito

  • Conteúdo perigoso

  • Violência
Use ShieldGemma as an input filter to any vision language model, or an an output filter of image generation models

Recomendamos o uso do ShieldGemma 2 como filtro de entrada para modelos de visão-linguagem ou como filtro de saída de sistemas de geração de imagens. O ShieldGemma pode ser usado em imagens sintéticas e naturais.


Qual é a diferença do ShieldGemma 2?

Ir além do texto, do treinamento e da compreensão da segurança de imagens em modelos multimodais traz novos desafios, e é por isso que o ShieldGemma 2 foi criado para responder a uma ampla gama de estilos de imagens diversificados e com nuances.

Para treinar um modelo robusto de segurança de imagens, selecionamos conjuntos de dados de treinamento com imagens naturais e sintéticas e ajustamos o Gemma 3 para demonstrar um desempenho sólido. Comparamos as políticas de segurança com os seguintes comparativos de mercado e divulgaremos um relatório técnico que também incorpora comparativos de mercado de terceiros.

ShieldGemma 2 performance
Resultados de avaliação com base na pontuação F1 ideal (%; quanto mais alta, melhor) em nosso comparativo de mercado interno

Veja como o ShieldGemma pode ajudar você a criar aplicativos de imagens de IA mais seguros:

  • Flexibilidade: faça upload de imagens sintéticas ou naturais e edite nosso modelo de prompt de acordo com as suas necessidades. Ajuste no Google Colab ou em sua própria GPU.

  • Versatilidade: todas as ferramentas com suporte ao Gemma 3 dão suporte ao ShieldGemma 2, incluindo frameworks populares, como Transformers, JAX, Keras, Ollama e outros.

  • Colaborativo: o ShieldGemma é aberto por natureza e incentiva os colaboradores da comunidade a continuar criando de forma inclusiva, à medida que promovemos coletivamente a evolução das normas de segurança do setor.

A implantação responsável de modelos abertos depende de um esforço de toda a comunidade, e estamos ansiosos para explorar como o ShieldGemma 2 poderá ser entregue em tamanhos menores, em mais áreas de danos e alinhado à taxonomia multimodal do ML Commons em um futuro próximo.

Estamos motivados a continuar criando uma IA multimodal segura e responsável!


Comece a usar hoje

  • Explore o ShieldGemma 2 em nosso site para desenvolvedores e consulte os detalhes do modelo para obter mais informações.

  • Experimente o ShieldGemma 2 no Google AI Studio, na Hugging Face, no Ollama e em outras plataformas.


Agradecimentos à equipe

Wenjun Zeng, Ryan Mullins, Dana Kurniawan, Yuchi Liu, Mani Malek, Yiwen Song, Dirichi Ike-Njoku, Hamid Palangi, Jindong Gu, Shravan Dheep, Karthik Narashimhan, Tamoghna Saha, Joon Baek, Rick Pereira, Cai Xu, Jingjing Zhou, Aparna Joshi, Will Hawkins