从今天开始,开发者可以通过 OpenAI 库和 REST API 使用最新的 Gemini 模型,从而更轻松地开始使用 Gemini。我们最初将支持 Chat Completions API 和 Embeddings API,并计划在未来几周和几个月内提供更多的兼容性。您可以阅读 Gemini API 文档,了解更多信息,如果您尚未使用 OpenAI 库,我们建议您直接调用 Gemini API。
python
from openai import OpenAI
client = OpenAI(
api_key="gemini_api_key",
base_url="https://generativelanguage.googleapis.com/v1beta/"
)
response = client.chat.completions.create(
model="gemini-1.5-flash",
n=1,
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{
"role": "user",
"content": "请说明 AI 的工作原理"
}
]
)
print(response.choices[0].message)
nodejs
import OpenAI from "openai";
const openai = new OpenAI({
apiKey: "gemini_api_key",
baseURL: "https://generativelanguage.googleapis.com/v1beta/"
});
const response = await openai.chat.completions.create({
model: "gemini-1.5-flash",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{
role: "user",
content: "请说明 AI 的工作原理",
},
],
});
console.log(response.choices[0].message);
bash
curl "https://generativelanguage.googleapis.com/v1beta/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $gemini_api_key" \
-d '{
"model": "gemini-1.5-flash",
"messages": [
{"role": "user", "content": "Explain to me how AI works"}
]
}'
如欲了解有关受支持的 Gemini API 参数列表,请参阅我们的 API 参考文档。我们很高兴地看到更多开发者有机会开始使用 Gemini 进行构建。此外,我们即将分享更多精彩更新。如果您是 Vertex AI Enterprise 客户,我们还支持 OpenAI 兼容性。祝您尽享构建的乐趣!