Gemini Embedding: Mendukung RAG dan rekayasa konteks

30 JULI 2025
Vishal Dharmadhikari Product Solutions Engineer

Sejak mengumumkan ketersediaan umum model teks Gemini Embedding, kami melihat developer dengan cepat mengadopsinya untuk membangun aplikasi AI lanjutan. Selain kasus penggunaan tradisional, seperti klasifikasi, penelusuran semantik, dan retrieval-augmented generation (RAG), kini banyak yang menggunakan teknik yang disebut rekayasa konteks untuk menyediakan konteks operasional yang lengkap bagi agen AI. Penyematan sangat penting di sini, karena teknik ini secara efisien mengidentifikasi dan mengintegrasikan informasi penting—seperti dokumen, riwayat percakapan, dan definisi alat—secara langsung ke dalam memori kerja model.

Contoh berikut menunjukkan bagaimana organisasi di berbagai industri telah memanfaatkan model Gemini Embedding untuk mendukung sistem mutakhir.


Gemini Embedding beraksi


Melepaskan kemampuan dalam intelijen konten global

Box, sebuah platform pengelolaan konten cerdas, mengintegrasikan Gemini Embedding untuk memungkinkan kasus penggunaan yang sangat penting: menjawab pertanyaan dan mengekstrak insight dari dokumen yang kompleks. Selama evaluasi, gemini-embedding-001 menemukan jawaban yang benar lebih dari 81%, menunjukkan peningkatan perolehan sebesar 3,6% dibandingkan dengan model sematan lainnya. Selain peningkatan performa ini, dukungan multibahasa bawaan model kami adalah kemajuan yang menjanjikan bagi pengguna global, yang memungkinkan Box AI membuka insight dari konten dalam berbagai bahasa dan wilayah.

Box AI - Gemini Embedding

Meningkatkan akurasi dalam analisis data keuangan

Perusahaan teknologi finansial re:cap menggunakan penyematan untuk mengklasifikasikan transaksi bank B2B bervolume tinggi. Mereka mengukur dampak gemini-embedding-001 dengan membandingkannya terhadap model Google sebelumnya (text-embedding-004 dan text-embedding-005) pada set data yang terdiri dari 21.500 transaksi, dan menemukan peningkatan skor F1 sebesar 1,9% dan 1,45%. Skor F1, yang menyeimbangkan presisi dan perolehan model, sangatlah penting untuk tugas klasifikasi. Hal ini menunjukkan bagaimana model yang mumpuni seperti Gemini Embedding secara langsung mendorong peningkatan performa yang signifikan, membantu re:cap menghadirkan insight likuiditas yang lebih tajam kepada pelanggannya.

re:cap - Gemini Embedding

Mencapai presisi semantik dalam penemuan hukum

Everlaw, sebuah platform yang menyediakan RAG yang dapat diverifikasi untuk membantu profesional hukum menganalisis dokumen penemuan bervolume besar, membutuhkan pencocokan semantik yang akurat pada jutaan teks khusus. Melalui tolok ukur internal, Everlaw menemukan gemini-embedding-001 sebagai yang terbaik, meraih akurasi 87% dalam memunculkan jawaban yang relevan dari 1,4 juta dokumen yang berisi istilah hukum industri yang spesifik dan rumit, melampaui model Voyage (84%) dan OpenAI (73%). Selain itu, properti Matryoshka dari Gemini Embedding memungkinkan Everlaw menggunakan representasi yang ringkas, memfokuskan informasi penting dalam dimensi yang lebih sedikit. Hal ini menyebabkan penurunan performa yang minimal, mengurangi biaya penyimpanan, dan pengambilan serta penelusuran yang lebih efisien.

Everlaw - Gemini Embedding

Meningkatkan level penelusuran codebase untuk developer

Roo Code, asisten coding AI open source, menggunakan model Gemini Embedding untuk mendukung pengindeksan codebase dan penelusuran semantik. Developer yang menggunakan Roo Code membutuhkan penelusuran yang membantu memahami intent, bukan hanya sintaksis, karena asisten berinteraksi di berbagai file layaknya rekan satu tim manusia. Dengan memasangkan gemini-embedding-001 dengan Tree-sitter untuk pemisahan kode logika, Roo Code memberikan hasil yang sangat relevan, bahkan untuk kueri yang tidak tepat. Setelah pengujian awal, mereka menemukan bahwa Gemini Embedding secara signifikan meningkatkan penelusuran kode berbasis LLM mereka, membuatnya lebih fleksibel, akurat, dan selaras dengan alur kerja developer.

ROO Code - Gemini Embedding

Memberikan dukungan kesehatan mental yang dipersonalisasi

Pendamping kesehatan AI Mindlid memanfaatkan gemini-embedding-001 untuk memahami riwayat percakapan, memungkinkan insight sadar konteks dan bermakna yang beradaptasi secara real time dengan pengguna. Mereka mencatat performa yang mengesankan: latensi sub-detik yang konsisten (median: 420ms) dan tingkat perolehan top-3 yang terukur sebesar 82%, peningkatan perolehan 4% dibandingkan text-embedding-3-small milik OpenAI. Hal ini menunjukkan bahwa Gemini Embedding meningkatkan relevansi dan kecepatan dukungan AI mereka dengan memberikan informasi yang paling relevan.

Mindlid - Gemini Embedding

Meningkatkan konteks dan efisiensi asisten AI

Interaction Co. sedang membangun Poke, asisten email AI yang mengotomatiskan tugas dan mengekstrak informasi dari Gmail. Poke menggunakan Gemini Embedding untuk dua fungsi utama: mengambil “memori” pengguna dan mengidentifikasi email yang relevan untuk konteks yang lebih baik. Dengan mengintegrasikan gemini-embedding-001, model bahasa Poke mengambil data dengan kecepatan dan presisi yang lebih tinggi. Mereka melaporkan penurunan waktu rata-rata sebesar 90,4% yang signifikan untuk menyematkan 100 email dibandingkan Voyage-2, menyelesaikan tugas hanya dalam waktu 21,45 detik.

Poke - Gemini Embedding

Fondasi untuk agen masa depan

Ketika sistem AI semakin otonom, efektivitasnya akan ditentukan oleh kualitas konteks yang kita berikan kepada mereka. Model penyematan berkinerja tinggi seperti gemini-embedding-001 adalah komponen fundamental untuk membangun agen generasi berikutnya yang dapat melakukan penalaran, mengambil informasi, dan bertindak atas nama kita.

Untuk memulai penyematan, kunjungi dokumentasi Gemini API.


Metrik performa disediakan oleh developer dan tidak dikonfirmasi secara independen oleh Google.