Hoy, les brindamos a los desarrolladores acceso a la ventana de contexto de 2 millones de tokens para Gemini 1.5 Pro y capacidades de ejecución de código en la API de Gemini, y agregamos Gemma 2 a Google AI Studio.
En I/O, presentamos la ventana de contexto más extensa de la historia, de 2 millones de tokens, en Gemini 1.5 Pro, detrás de una lista de espera. Hoy, permitimos que todos los desarrolladores accedan a la ventana de contexto de 2 millones de tokens en Gemini 1.5 Pro.
A medida que la ventana de contexto crece, también lo hace el costo potencial de los insumos. Para ayudar a los desarrolladores a reducir los costos relacionados con las tareas que usan los mismos tokens en diferentes solicitudes, lanzamos el almacenamiento en caché de contexto en la API de Gemini, tanto para Gemini 1.5 Pro como para 1.5 Flash.
Los LLM siempre han tenido problemas con las matemáticas o el razonamiento de datos. Generar y ejecutar código que pueda razonar frente a tales problemas ayuda a mejorar la precisión. Para ofrecer estas capacidades a los desarrolladores, habilitamos la ejecución de código tanto para Gemini 1.5 Pro como para 1.5 Flash. Una vez activada esta función, el modelo puede aprovecharla dinámicamente para generar y ejecutar código Python, y aprender iterativamente de los resultados hasta llegar a un resultado final deseado. La zona de pruebas de ejecución no está conectada a Internet, viene de serie con algunas bibliotecas numéricas y a los desarrolladores simplemente se les factura en función de los tokens de salida del modelo.
Este es nuestro primer paso adelante en relación con la ejecución de código como capacidad de modelo y está disponible hoy a través de la API de Gemini y en Google AI Studio, en "Configuración avanzada".
Queremos que la IA sea accesible para todos los desarrolladores, ya sea que estén buscando integrar nuestros modelos de Gemini a través de una clave API o utilizando nuestros modelos abiertos, como Gemma 2. A fin de ayudar a los desarrolladores a poner en práctica el modelo Gemma 2, lo ponemos a disposición en Google AI Studio para que puedan experimentar.
Gemini 1.5 Flash se creó para satisfacer la principal solicitud de velocidad y accesibilidad de los desarrolladores. Nos entusiasma la forma en que los desarrolladores están innovando con Gemini 1.5 Flash y utilizando el modelo en producción:
Como anticipamos en nuestro anuncio del mes pasado, estamos trabajando arduamente para que el ajuste de Gemini 1.5 Flash esté disponible para todos los desarrolladores, a fin de permitir nuevos casos de uso, mayor solidez en la producción adicional y más confiabilidad. El ajuste de texto en 1.5 Flash ya está listo para las pruebas de equipo rojo y se implementará gradualmente para los desarrolladores a partir de hoy. Todos los desarrolladores podrán acceder al ajuste de Gemini 1.5 Flash a través de la API de Gemini y en Google AI Studio, a mediados de julio.
Esperamos ver cómo usas estas nuevas funciones. Puedes unirte a la conversación en nuestro foro de desarrolladores. Si eres un desarrollador empresarial, echa un vistazo a cómo estamos convirtiendo a Vertex AI en la plataforma de IA generativa más apropiada para las empresas.