OpenAI ライブラリから Gemini へのアクセスが可能に

11月 08, 2024
Logan Kilpatrick Senior Product Manager Gemini API and Google AI Studio

本日より、OpenAI ライブラリや REST API を使って最新の Gemini モデルにアクセスできるようになります。これにより、Gemini を簡単に使い始めることができます。まずは、Chat Completions API と Embeddings API がサポートされます。今後数週間から数か月のうちに、対応する機能がさらに増える予定です。詳しい使い方は、Gemini API ドキュメントをご覧ください。OpenAI ライブラリを使っていない方には、直接 Gemini API を呼び出すことをおすすめします。

Python コードの例

python
from openai import OpenAI
client = OpenAI(
    api_key="gemini_api_key",
    base_url="https://generativelanguage.googleapis.com/v1beta/"
)
 
 
response = client.chat.completions.create(
    model="gemini-1.5-flash",
    n=1,
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {
            "role": "user",
            "content": "Explain to me how AI works"
        }
    ]
)
 
print(response.choices[0].message)

Typescript / Javascript のコード例

nodejs
import OpenAI from "openai";
const openai = new OpenAI({
    apiKey: "gemini_api_key",
    baseURL: "https://generativelanguage.googleapis.com/v1beta/"
});
 
const response = await openai.chat.completions.create({
    model: "gemini-1.5-flash",
    messages: [
        { role: "system", content: "You are a helpful assistant." },
        {
            role: "user",
            content: "Explain to me how AI works",
        },
    ],
});
 
console.log(response.choices[0].message);

REST コードの例

bash
curl "https://generativelanguage.googleapis.com/v1beta/chat/completions" \
    -H "Content-Type: application/json" \
    -H "Authorization: Bearer $gemini_api_key" \
    -d '{
        "model": "gemini-1.5-flash",
            "messages": [
                {"role": "user", "content": "Explain to me how AI works"}
            ]
        }'

サポートされている Gemini API パラメータのリストは、API リファレンスをご覧ください。Gemini で開発を始めるデベロッパーが増えることを楽しみにしています。近いうちに、さらにたくさんのアップデートについてお知らせする予定です。Vertex AI Enterprise も OpenAI 互換になっています。楽しい開発を!