本日よりデベロッパーの皆さんが、Gemini 1.5 Pro の 200 万コンテキスト ウィンドウ、Gemini API の コード実行機能、Google AI Studio の Gemma 2 にアクセスできるようになります。
Gemini 1.5 Pro は、200 万トークンという史上最長のコンテキスト ウィンドウを持っています。I/O でお知らせしたように、この機能には、待機リスト経由でご案内しておりました。本日より、すべてのデベロッパーが Gemini 1.5 Pro の 200 万トークンのコンテキスト ウィンドウを利用できるようになります。
コンテキスト ウィンドウが大きくなると、入力コストが高くなる可能性も大きくなります。そこで、複数のプロンプトで同じトークンを使い回すタスクのコストを削減できるように、Gemini 1.5 Pro と 1.5 Flash の両方の Gemini API でコンテキスト キャッシュを開始します。
従来の LLM は、数学やデータ推論の問題が得意ではありませんでした。このような問題を推論できるコードを生成して実行できれば、精度向上につながります。デベロッパーがそのような機能を使えるようにするため、Gemini 1.5 Pro と 1.5 Flash の両方でコード実行を有効にしました。これをオンにすると、モデルはコード実行機能を動的に利用します。モデルは Python コードを生成して実行し、その結果から反復的に学習することで、望ましい最終出力を導き出します。実行サンドボックスはインターネットには未接続で、いくつかの数値ライブラリが標準で搭載されています。デベロッパーへの課金はシンプルで、モデルの出力トークンだけに基づきます。
これは、モデル機能としてのコード実行の最初のステップです。本日より、Gemini API と Google AI Studio の詳細設定から利用できます。
私たちは、すべてのデベロッパーが AI を利用できるようにしたいと考えています。API キーを使って Gemini モデルを呼び出すことも、Gemma 2 などのオープンモデルを使うこともできます。デベロッパーの皆さんが実際に Gemma 2 モデルを試せるように、Google AI Studio で実験できるようにします。
デベロッパーの皆さんから寄せられている最大の要望は、スピードと手頃な価格の両立です。Gemini 1.5 Flash は、その声に応えるために作られました。大変うれしいことに、皆さんは Gemini 1.5 Flash でイノベーションを起こし、モデルを実環境で利用してくださっています。
先月お知らせしたように、すべてのデベロッパーが Gemini 1.5 Flash のチューニングを利用できるようにするための取り組みを懸命に行っています。これにより、新しいユースケース、本番環境での堅牢性の向上、高い信頼性が実現します。1.5 Flash のテキスト チューニングは、レッドチームによるテストの準備が整い、本日よりデベロッパーへの段階的ロールアウトが始まります。すべてのデベロッパーは、7 月中旬までに Gemini API と Google AI Studio から Gemini 1.5 Flash をチューニングできるようになります。
ここで紹介した新機能を皆さんがどのように使うのか、それを見ることができるのを楽しみにしています。ぜひデベロッパー フォーラムの会話に参加してください。エンタープライズ デベロッパーの皆さんは、企業に最適な生成 AI プラットフォームとして開発されている Vertex AI もご覧ください。