Keluarga Gemma Berkembang dengan Model yang Disesuaikan untuk Developer dan Peneliti

APR 12, 2024
Tris Warkentin Director, Product Management
Jane Fine Senior Product Manager

Pada bulan Februari kami mengumumkan Gemma, keluarga model terbuka kami yang ringan dan canggih serta dibangun dari penelitian dan teknologi yang sama dengan yang digunakan untuk membuat model Gemini. Respons komunitas yang luar biasa – termasuk varian penyempurnaan yang mengesankan, notebook Kaggle, integrasi ke dalam alat dan layanan, urutan langkah RAG menggunakan database seperti MongoDB, dan masih banyak lagi – sungguh sangat menginspirasi.

Hari ini, kami sangat senang bisa mengumumkan penambahan pertama kami untuk keluarga Gemma, yang memperluas kemungkinan bagi developer ML untuk berinovasi secara bertanggung jawab: CodeGemma untuk tugas pelengkapan dan pembuatan kode serta mengikuti instruksi, dan RecurrentGemma, arsitektur yang dioptimalkan dengan efisien untuk eksperimen penelitian. Selain itu, kami juga membagikan beberapa update untuk Gemma dan ketentuan kami yang ditujukan untuk peningkatan berdasarkan masukan yang sangat berharga yang kami dengar dari komunitas dan mitra kami.


Memperkenalkan dua varian Gemma yang pertama

CodeGemma: Pelengkapan, pembuatan kode, dan chat untuk developer dan bisnis

Memanfaatkan fondasi model Gemma kami, CodeGemma menghadirkan kemampuan coding yang kuat sekaligus ringan bagi komunitas. Model CodeGemma tersedia dalam varian pretrained 7B yang memiliki spesialisasi dalam tugas pelengkapan kode dan pembuatan kode, varian instruction-tuned 7B untuk chat kode dan mengikuti instruksi, dan varian pretrained 2B untuk pelengkapan kode secara cepat yang cocok dengan komputer lokal Anda. Model CodeGemma memiliki beberapa keunggulan:

  • Pelengkapan dan pembuatan kode yang cerdas: Lengkapi baris, fungsi, bahkan buat seluruh blok kode – baik saat Anda bekerja secara lokal maupun memanfaatkan sumber daya cloud. 

  • Akurasi yang lebih baik: Dilatih dengan 500 miliar token yang sebagian besar merupakan data berbahasa Inggris dari dokumen web, matematika, dan kode, model CodeGemma menghasilkan kode yang tidak hanya lebih tepat secara sintaksis, tetapi juga bermakna secara semantik, sehingga membantu mengurangi error dan waktu proses debug. 

  • Kecakapan multibahasa: Asisten coding Anda yang tak ternilai untuk Python, JavaScript, Java, dan bahasa populer lainnya. 

  • Alur kerja yang efisien: Integrasikan model CodeGemma ke dalam lingkungan pengembangan Anda untuk menulis lebih sedikit boilerplate, dan berfokus pada kode penting yang menarik dan berbeda – lebih cepat.
CodeGemma integrated within an existing AI dev project with
Tabel ini membandingkan performa CodeGemma dengan model lain yang serupa pada tugas pelengkapan kode tunggal dan multibaris.

Pelajari lebih lanjut tentang CodeGemma dalam laporan kami atau cobalah dalam panduan memulai ini.


RecurrentGemma: Inferensi yang efisien dan lebih cepat pada ukuran batch yang lebih tinggi untuk peneliti

RecurrentGemma adalah model yang berbeda secara teknis yang memanfaatkan recurrent neural network dan atensi lokal untuk meningkatkan efisiensi memori. Selain mencapai performa skor tolok ukur yang serupa dengan model Gemma 2B, arsitektur unik RecurrentGemma menghasilkan beberapa keunggulan:

  • Penggunaan memori yang lebih sedikit: Persyaratan memori yang lebih rendah memungkinkan pembuatan sampel yang lebih panjang pada perangkat dengan memori terbatas, seperti GPU atau CPU tunggal. 

  • Throughput yang lebih tinggi: Karena penggunaan memori yang lebih rendah, RecurrentGemma bisa melakukan inferensi pada ukuran batch yang jauh lebih tinggi, sehingga menghasilkan lebih banyak token per detik (terutama ketika membuat urutan yang panjang). 

  • Inovasi penelitian: RecurrentGemma menampilkan model non-transformer yang mencapai performa tinggi, menyoroti kemajuan dalam penelitian deep learning. 
Graph showing maximum thoughput when sampling from a prompt of 2k tokens on TPUv5e
Bagan ini memperlihatkan bagaimana RecurrentGemma mempertahankan kecepatan sampling tanpa memandang panjangnya urutan, sementara model berbasis Transformer seperti Gemma melambat seiring dengan semakin panjangnya urutan.

Untuk memahami teknologi yang mendasarinya, bacalah makalah kami. Untuk eksplorasi praktis, cobalah lihat notebook, yang menunjukkan cara menyempurnakan model.


Dibangun dengan fondasi Gemma, memperluas kemampuan

Dipandu oleh prinsip yang sama dengan model asli Gemma, varian model baru ini menawarkan:

  • Ketersediaan yang terbuka: Mendorong inovasi dan kolaborasi dengan ketersediaannya untuk semua orang dan ketentuan penggunaan yang fleksibel. 

  • Kemampuan berkinerja tinggi dan efisien: Meningkatkan kemampuan model terbuka dengan keahlian domain khusus kode dan desain yang dioptimalkan untuk pelengkapan dan pembuatan yang sangat cepat. 

  • Desain yang bertanggung jawab: Komitmen kami terhadap AI yang bertanggung jawab membantu memastikan model memberikan hasil yang aman dan andal. 

  • Fleksibilitas untuk beragam software dan hardware:

- CodeGemma dan RecurrentGemma: Dibangun dengan JAX dan kompatibel dengan JAX, PyTorch, Hugging Face Transformers, dan Gemma.cpp. Memungkinkan eksperimen lokal dan deployment yang hemat biaya di berbagai hardware, termasuk laptop, desktop, GPU NVIDIA, dan Google Cloud TPU.  

- CodeGemma: Selain itu, kompatibel dengan Keras, NVIDIA NeMo, TensorRT-LLM, Optimum-NVIDIA, MediaPipe, dan ketersediaan di Vertex AI. 

- RecurrentGemma: Dukungan untuk semua produk yang disebutkan di atas akan tersedia dalam beberapa minggu mendatang.


Update Gemma 1.1

Bersamaan dengan varian model baru, kami merilis Gemma 1.1, yang mencakup peningkatan performa. Selain itu, kami juga mendengarkan masukan dari developer, memperbaiki bug, dan memperbarui ketentuan untuk memberikan fleksibilitas yang lebih tinggi.


Mulai sekarang

Varian model Gemma pertama ini tersedia di berbagai tempat di seluruh dunia, mulai hari ini di Kaggle, Hugging Face, dan Vertex AI Model Garden. Berikut adalah cara memulainya:

  • Jelajahi opsi integrasi: Temukan panduan dan sumber daya untuk mengintegrasikan model dengan alat dan platform favorit Anda.

  • Bereksperimen dan berinovasi: Tambahkan varian model Gemma ke project Anda yang berikutnya dan jelajahi kemampuannya. 


Kami mengundang Anda untuk mencoba model CodeGemma dan RecurrentGemma serta membagikan masukan Anda tentang Kaggle. Bersama-sama, mari kita bentuk masa depan pemahaman dan pembuatan konten berteknologi AI.