Lebih Aman dan Multimodal: AI yang Bertanggung Jawab dengan Gemma

MAR 12, 2025
Dana Kurniawan Product Manager
Wenjun Zeng Software Engineer
Ryan Mullins Software Engineer

Tahun lalu, kami merilis ShieldGemma, rangkaian model pengklasifikasi konten keamanan yang dibangun di atas Gemma 2 dan dirancang untuk mendeteksi konten berbahaya dalam input dan output teks model AI. Pada peluncuran Gemma 3 hari ini, kami sangat senang dapat membangun fondasi AI yang bertanggung jawab dengan mengumumkan ShieldGemma 2.

Link to Youtube Video (visible only when JS is disabled)

ShieldGemma 2, yang dibangun di atas Gemma 3, adalah model parameter 4 miliar (4B) yang memeriksa keamanan gambar sintetis dan natural Anda dibandingkan dengan kategori-kategori utama untuk membantu Anda membangun set data dan model yang kuat. Dengan tambahan pada rangkaian model Gemma ini, peneliti dan developer sekarang bisa dengan mudah meminimalkan risiko konten berbahaya pada model mereka di seluruh area utama yang membahayakan:

  • Konten seksual yang vulgar

  • Konten berbahaya

  • Kekerasan
Use ShieldGemma as an input filter to any vision language model, or an an output filter of image generation models

Kami merekomendasikan penggunaan ShieldGemma 2 sebagai filter input untuk model bahasa visi, atau sebagai filter output dari sistem pembuatan gambar. ShieldGemma bisa digunakan pada gambar sintetis dan natural.


Apa yang berbeda di ShieldGemma 2?

Tak hanya teks, melatih dan memahami keamanan gambar dalam model multimodal menghadirkan tantangan baru, itulah sebabnya ShieldGemma 2 dibuat untuk merespons berbagai gaya gambar yang beragam dan bernuansa.

Untuk melatih model keamanan gambar yang tangguh, kami menyusun set data pelatihan gambar natural dan sintetis, serta Gemma 3 yang telah disesuaikan dengan instruksi untuk mendemonstrasikan performa yang kuat. Kami membandingkan kebijakan keamanan dengan tolok ukur berikut ini, dan akan merilis laporan teknis yang juga menyertakan tolok ukur pihak ketiga.

ShieldGemma 2 performance
Hasil evaluasi berdasarkan skor F1 optimal (%, lebih tinggi berarti lebih baik) pada tolok ukur internal kami

Berikut adalah cara ShieldGemma membantu Anda membangun aplikasi gambar AI agar lebih aman:

  • Fleksibilitas: Upload gambar sintetis atau natural apa saja, dan edit template prompt kami untuk menyesuaikan dengan kebutuhan Anda. Sesuaikan di Google Colab atau GPU Anda sendiri.

  • Versatilitas: Semua alat yang mendukung Gemma 3 mendukung ShieldGemma 2, termasuk framework populer, seperti Transformers, JAX, Keras, Ollama, dan lainnya.

  • Kolaboratif: ShieldGemma pada dasarnya bersifat terbuka dan mempersilakan kolaborator komunitas untuk terus membangun secara inklusif seiring kami secara kolektif mendorong standar keamanan industri ke depan dan semakin tinggi.

Menerapkan model terbuka secara bertanggung jawab bergantung pada upaya seluruh komunitas, dan kami berharap bisa mengeksplorasi cara agar ShieldGemma 2 dapat dikirimkan dalam ukuran yang lebih kecil, di area yang lebih berbahaya, dan diselaraskan dengan taksonomi ML Commons multimodal dalam waktu dekat.

Kami sangat senang dapat terus membangun AI multimodal yang aman dan bertanggung jawab!


Mulai sekarang

  • Jelajahi ShieldGemma 2 di situs developer kami, dan lihat kartu model kami untuk informasi selengkapnya.

  • Coba ShieldGemma 2 di Google AI Studio, Hugging Face, Ollama, dan platform lainnya.


Ucapan Terima Kasih kepada Tim

Wenjun Zeng, Ryan Mullins, Dana Kurniawan, Yuchi Liu, Mani Malek, Yiwen Song, Dirichi Ike-Njoku, Hamid Palangi, Jindong Gu, Shravan Dheep, Karthik Narashimhan, Tamoghna Saha, Joon Baek, Rick Pereira, Cai Xu, Jingjing Zhou, Aparna Joshi, Will Hawkins