Sejak mengumumkan ketersediaan umum model teks Gemini Embedding, kami melihat developer dengan cepat mengadopsinya untuk membangun aplikasi AI lanjutan. Selain kasus penggunaan tradisional, seperti klasifikasi, penelusuran semantik, dan retrieval-augmented generation (RAG), kini banyak yang menggunakan teknik yang disebut rekayasa konteks untuk menyediakan konteks operasional yang lengkap bagi agen AI. Penyematan sangat penting di sini, karena teknik ini secara efisien mengidentifikasi dan mengintegrasikan informasi penting—seperti dokumen, riwayat percakapan, dan definisi alat—secara langsung ke dalam memori kerja model.
Contoh berikut menunjukkan bagaimana organisasi di berbagai industri telah memanfaatkan model Gemini Embedding untuk mendukung sistem mutakhir.
Box, sebuah platform pengelolaan konten cerdas, mengintegrasikan Gemini Embedding untuk memungkinkan kasus penggunaan yang sangat penting: menjawab pertanyaan dan mengekstrak insight dari dokumen yang kompleks. Selama evaluasi, gemini-embedding-001
menemukan jawaban yang benar lebih dari 81%, menunjukkan peningkatan perolehan sebesar 3,6% dibandingkan dengan model sematan lainnya. Selain peningkatan performa ini, dukungan multibahasa bawaan model kami adalah kemajuan yang menjanjikan bagi pengguna global, yang memungkinkan Box AI membuka insight dari konten dalam berbagai bahasa dan wilayah.
Perusahaan teknologi finansial re:cap menggunakan penyematan untuk mengklasifikasikan transaksi bank B2B bervolume tinggi. Mereka mengukur dampak gemini-embedding-001
dengan membandingkannya terhadap model Google sebelumnya (text-embedding-004
dan text-embedding-005
) pada set data yang terdiri dari 21.500 transaksi, dan menemukan peningkatan skor F1 sebesar 1,9% dan 1,45%. Skor F1, yang menyeimbangkan presisi dan perolehan model, sangatlah penting untuk tugas klasifikasi. Hal ini menunjukkan bagaimana model yang mumpuni seperti Gemini Embedding secara langsung mendorong peningkatan performa yang signifikan, membantu re:cap menghadirkan insight likuiditas yang lebih tajam kepada pelanggannya.
Everlaw, sebuah platform yang menyediakan RAG yang dapat diverifikasi untuk membantu profesional hukum menganalisis dokumen penemuan bervolume besar, membutuhkan pencocokan semantik yang akurat pada jutaan teks khusus. Melalui tolok ukur internal, Everlaw menemukan gemini-embedding-001
sebagai yang terbaik, meraih akurasi 87% dalam memunculkan jawaban yang relevan dari 1,4 juta dokumen yang berisi istilah hukum industri yang spesifik dan rumit, melampaui model Voyage (84%) dan OpenAI (73%). Selain itu, properti Matryoshka dari Gemini Embedding memungkinkan Everlaw menggunakan representasi yang ringkas, memfokuskan informasi penting dalam dimensi yang lebih sedikit. Hal ini menyebabkan penurunan performa yang minimal, mengurangi biaya penyimpanan, dan pengambilan serta penelusuran yang lebih efisien.
Roo Code, asisten coding AI open source, menggunakan model Gemini Embedding untuk mendukung pengindeksan codebase dan penelusuran semantik. Developer yang menggunakan Roo Code membutuhkan penelusuran yang membantu memahami intent, bukan hanya sintaksis, karena asisten berinteraksi di berbagai file layaknya rekan satu tim manusia. Dengan memasangkan gemini-embedding-001
dengan Tree-sitter untuk pemisahan kode logika, Roo Code memberikan hasil yang sangat relevan, bahkan untuk kueri yang tidak tepat. Setelah pengujian awal, mereka menemukan bahwa Gemini Embedding secara signifikan meningkatkan penelusuran kode berbasis LLM mereka, membuatnya lebih fleksibel, akurat, dan selaras dengan alur kerja developer.
Pendamping kesehatan AI Mindlid memanfaatkan gemini-embedding-001
untuk memahami riwayat percakapan, memungkinkan insight sadar konteks dan bermakna yang beradaptasi secara real time dengan pengguna. Mereka mencatat performa yang mengesankan: latensi sub-detik yang konsisten (median: 420ms) dan tingkat perolehan top-3 yang terukur sebesar 82%, peningkatan perolehan 4% dibandingkan text-embedding-3-small
milik OpenAI. Hal ini menunjukkan bahwa Gemini Embedding meningkatkan relevansi dan kecepatan dukungan AI mereka dengan memberikan informasi yang paling relevan.
Interaction Co. sedang membangun Poke, asisten email AI yang mengotomatiskan tugas dan mengekstrak informasi dari Gmail. Poke menggunakan Gemini Embedding untuk dua fungsi utama: mengambil “memori” pengguna dan mengidentifikasi email yang relevan untuk konteks yang lebih baik. Dengan mengintegrasikan gemini-embedding-001
, model bahasa Poke mengambil data dengan kecepatan dan presisi yang lebih tinggi. Mereka melaporkan penurunan waktu rata-rata sebesar 90,4% yang signifikan untuk menyematkan 100 email dibandingkan Voyage-2, menyelesaikan tugas hanya dalam waktu 21,45 detik.
Ketika sistem AI semakin otonom, efektivitasnya akan ditentukan oleh kualitas konteks yang kita berikan kepada mereka. Model penyematan berkinerja tinggi seperti gemini-embedding-001
adalah komponen fundamental untuk membangun agen generasi berikutnya yang dapat melakukan penalaran, mengambil informasi, dan bertindak atas nama kita.
Untuk memulai penyematan, kunjungi dokumentasi Gemini API.
Metrik performa disediakan oleh developer dan tidak dikonfirmasi secara independen oleh Google.