Gemini API による最先端のテキスト エンベディング

3月 07, 2025
Logan Kilpatrick Senior Product Manager Gemini API and Google AI Studio
Zach Gleicher Product Manager Google DeepMind
Parashar Shah Product Manger Google Cloud

[Google が Gemini 2.0 Flash ネイティブ画像生成で作成した画像]


本日、Gemini API で新しい試験運用版 Gemini Embedding テキストモデル(gemini-embedding-exp-03-07)1 を公開します。

この新しいエンベディング モデルは、Gemini モデルそのものを使ってトレーニングしており、言語や細かな文脈まで理解できる Gemini の能力を受け継いでいるので、幅広い用途で利用できます。以前の最先端モデル(text-embedding-004)を上回る能力を持ち、Massive Text Embedding Benchmark (MTEB)多言語リーダーボードでトップランクを獲得しているほか、より長い入力トークン長などの新機能も搭載されています!


これまででもっとも強力なテキスト エンベディング モデル

このモデルは、極めて高い汎用性を持つようにトレーニングしてあるので、財務、科学、法務、検索など、さまざまなドメインで優れたパフォーマンスを発揮します。また、すぐに効率的に動作するので、特定のタスク向けに幅広いファインチューニングを行う必要はありません。

MTEB(多言語)リーダーボードは、検索や分類などの多様なタスクに対してテキスト エンベディング モデルをランク付けすることで、包括的なベンチマークを提供し、モデルを比較できるようにするものです。私たちの Gemini Embedding モデルは、68.32 の平均(タスク)スコアを達成しました。これは、次点のモデルを 5.81 上回る数値です。

MTEB Leaderboard text model performance ranking
新しい Gemini テキスト エンベディング モデル(gemini-embedding-exp-03-07)が MTEB(多言語)リーダーボードで高得点を達成(右クリックして新しいタブで画像を開きます)。

エンベディングが役立つ場面

インテリジェント検索拡張生成(RAG)やレコメンデーション システムの開発、テキスト分類など、LLM がテキストの背後にある意味を理解する能力は極めて重要です。通常、エンベディングは、開発するシステムの効果を高め、コストやレイテンシを削減するうえで欠かせないものであると同時に、一般的にキーワード マッチング システムよりも優れた結果を実現します。エンベディングは、データを数値で表現することで、そのデータの意味と文脈をキャプチャします。似た意味を持つデータからは、近いエンベディングが生成されます。エンベディングは、次のような幅広い用途に利用できます。

  • 効率的な検索: クエリとドキュメントのエンベディングを比較することで、法的文書や企業の検索など、大規模なデータベースから関連文書を検索します。

  • 検索拡張生成(RAG): 関連情報を取得し、それをモデルのコンテキストに組み込むことで、品質や関連性が高いテキストを生成できるようにします。

  • クラスタリングとカテゴライズ: 類似したテキストをグループ化し、データの傾向やトピックを特定します。

  • 分類: 感情分析やスパム検出など、コンテンツに基づいてテキストを自動分類します。

  • テキストの類似性: 重複コンテンツを特定することで、ウェブページの重複除去や盗用の検出などのタスクを実現します。

エンベディングや一般的な AI でのユースケースの詳細については、Gemini API ドキュメントをご覧ください。


Gemini Embedding を使ってみる

デベロッパーは、Gemini API から新しい試験運用版 Gemini Embeddings モデルにアクセスできます。既存の embed_content エンドポイントと互換性があります。

from google import genai
 
client = genai.Client(api_key="GEMINI_API_KEY")
 
result = client.models.embed_content(
        model="gemini-embedding-exp-03-07",
        contents="How does alphafold work?",
)
 
print(result.embeddings)

あらゆる次元で品質が向上していることに加えて、Gemini Embedding には次のような特長があります。

  • 8K の入力トークン上限: コンテキスト長が以前のモデルより増大しており、大量のテキストやコードなどのデータのエンベディングを生成できます。

  • 3K ディメンションの出力: 以前のエンベディング モデルの約 4 倍のトークンを含む高次元エンベディングです。

  • マトリョーシカ特徴表現学習(MRL): MRL を使ってオリジナルの 3K ディメンションを切り捨て、スケールダウンすることで、希望のストレージ コストを実現できます。

  • 言語サポートの拡大: サポートする言語の数が倍増し、100 言語以上になりました。

  • 統合モデル: このモデルは、これまでのタスク固有の多言語モデル、英語のみのモデル、コード専用モデルの品質を上回っています。


現在は、処理能力に制限がある試験運用版段階にありますが、今回のリリースで Gemini Embedding の機能をいち早く試せるようになります。すべての試験運用版モデルと同じく、今後変更される可能性があります。現在は、今後数か月以内に安定版を一般公開リリースすることに向けて作業を進めています。エンベディング フィードバック フォームからご意見をお聞かせください。



1 Vertex AI では、エンドポイント「text-embedding-large-exp-03-07」から同じモデルを利用できます。一般提供版では、一貫性のある名前になる予定です。