Gemini Batch API sekarang mendukung Embeddings dan Kompatibilitas OpenAI

10 SEP. 2025
Lucia Loher Product Manager
Patrick Löber Developer Relations Engineer

Batch API sekarang mendukung Embeddings dan Kompatibilitas OpenAI

Hari ini kami memperluas Gemini Batch API untuk mendukung model Gemini Embedding yang baru saja diluncurkan, serta menawarkan kepada developer kemampuan untuk memanfaatkan OpenAI SDK untuk mengirimkan dan memproses batch.

Ini dibangun di atas peluncuran awal Gemini Batch API - yang memungkinkan pemrosesan asinkron dengan biaya 50% lebih rendah untuk kasus penggunaan dengan volume tinggi dan toleran terhadap latensi.

Dukungan Embedding Batch API

Model Gemini Embedding terbaru kami sudah digunakan untuk ribuan deployment produksi. Dan kini, Anda bisa memanfaatkan model ini dengan Batch API pada batas kecepatan yang jauh lebih tinggi dengan harga setengahnya - $0,075 per 1 Juta token input - untuk membuka lebih banyak lagi kasus penggunaan yang lebih sensitif terhadap biaya, toleran terhadap latensi, atau asinkron.

Memulai Batch Embeddings hanya dengan beberapa baris kode:

# Create a JSONL with your requests:
# {"key": "request_1", "request": {"output_dimensionality": 512, "content": {"parts": [{"text": "Explain GenAI"}]}}}
# {"key": "request_2", "request": {"output_dimensionality": 512, "content": {"parts": [{"text": "Explain quantum computing"}]}}}
 
from google import genai
 
client = genai.Client()
 
uploaded_batch_requests = client.files.upload(file='embedding_requests.jsonl')
 
batch_job = client.batches.create_embeddings(
    model="gemini-embedding-001",
    src={"file_name": uploaded_batch_requests.name}
)
 
 
print(f"Created embedding batch job: {batch_job.name}")
 
# Wait for up to 24 hours
 
if batch_job.state.name == 'JOB_STATE_SUCCEEDED':
    result_file_name = batch_job.dest.file_name
    file_content_bytes = client.files.download(file=result_file_name)
    file_content = file_content_bytes.decode('utf-8')
 
    for line in file_content.splitlines():
        print(line)
Python

Untuk informasi dan contoh selengkapnya, kunjungi:

Kompatibilitas OpenAI untuk Batch API

Beralih ke Gemini Batch API sekarang semudah mengupdate beberapa baris kode jika Anda menggunakan lapisan kompatibilitas OpenAI SDK:

from openai import OpenAI
 
openai_client = OpenAI(
    api_key="GEMINI_API_KEY",
    base_url="https://generativelanguage.googleapis.com/v1beta/openai/"
)
 
# Upload JSONL file in OpenAI batch input format...
 
# Create batch
batch = openai_client.batches.create(
    input_file_id=batch_input_file_id,
    endpoint="/v1/chat/completions",
    completion_window="24h"
)
 
# Wait for up to 24 hours & poll for status
batch = openai_client.batches.retrieve(batch.id)
 
if batch.status == "completed":
    # Download results...
Python

Anda bisa membaca selengkapnya tentang lapisan Kompatibilitas OpenAI dan dukungan batch dalam dokumentasi kami.

Kami terus memperluas penawaran batch kami untuk semakin mengoptimalkan biaya penggunaan Gemini API, jadi nantikan update selanjutnya. Sementara itu, selamat membangun!