A partir de hoy, los desarrolladores pueden acceder a los últimos modelos de Gemini a través de la biblioteca de OpenAI y la API de REST, lo que les permite comenzar fácilmente a trabajar con Gemini. En un principio, ofreceremos compatibilidad con la API de finalización de chat y la API de incorporaciones, mientras que planificamos ofrecer compatibilidad adicional en las próximas semanas y meses. Puedes obtener más información en los documentos de la API de Gemini y, si aún no utilizas las bibliotecas de OpenAI, te recomendamos que llames directamente a la API de Gemini.
python
from openai import OpenAI
client = OpenAI(
api_key="gemini_api_key",
base_url="https://generativelanguage.googleapis.com/v1beta/"
)
response = client.chat.completions.create(
model="gemini-1.5-flash",
n=1,
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{
"role": "user",
"content": "Explain to me how AI works"
}
]
)
print(response.choices[0].message)
nodejs
import OpenAI from "openai";
const openai = new OpenAI({
apiKey: "gemini_api_key",
baseURL: "https://generativelanguage.googleapis.com/v1beta/"
});
const response = await openai.chat.completions.create({
model: "gemini-1.5-flash",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{
role: "user",
content: "Explain to me how AI works",
},
],
});
console.log(response.choices[0].message);
bash
curl "https://generativelanguage.googleapis.com/v1beta/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $gemini_api_key" \
-d '{
"model": "gemini-1.5-flash",
"messages": [
{"role": "user", "content": "Explain to me how AI works"}
]
}'
Para obtener una lista de los parámetros compatibles con la API de Gemini, puedes leer nuestra referencia de la API. Nos entusiasma que más desarrolladores tengan la oportunidad de comenzar a compilar con Gemini y pronto tendremos más actualizaciones para compartir. Si eres cliente de Vertex AI Enterprise, también ofrecemos compatibilidad con OpenAI. ¡Diviértete compilando!