165 resultados
24 DE JULIO DE 2025 / Google Labs
Opal es una nueva herramienta experimental de Google Labs que te ayuda a redactar indicaciones para convertirlas en miniapps dinámicas de varios pasos utilizando un lenguaje natural, eliminando la necesidad de código y permitiendo a los usuarios crear e implementar aplicaciones de IA compartibles con funciones potentes y una integración perfecta con las herramientas existentes de Google.
23 DE JULIO DE 2025 / Firebase
Las nuevas funciones de IA para framewoks populares de Firebase Studio incluyen plantillas optimizadas para IA, integración optimizada con los servicios de backend de Firebase y la capacidad de bifurcar espacios de trabajo para la experimentación y la colaboración, lo que hace que el desarrollo de aplicaciones asistido por IA sea más intuitivo y rápido para los desarrolladores de todo el mundo.
22 DE JULIO DE 2025 / Gemini
Gemini 2.5 Flash-Lite, anteriormente en versión preliminar, ahora es una versión estable y está disponible de manera general. Este modelo rentable es aproximadamente 1.5 veces más rápido que la versión 2.0 Flash-Lite y 2.0 Flash, ofrece alta calidad e incluye 2.5 funciones de la familia como una ventana de contexto de 1 millón de tokens y multimodalidad.
21 DE JULIO DE 2025 / Gemini
La función avanzada de Gemini para la segmentación de imágenes conversacionales permite una interacción intuitiva con datos visuales a través de la comprensión de frases complejas, lógica condicional y conceptos abstractos, agilizando la experiencia del desarrollador y abriendo puertas para nuevas aplicaciones en edición de medios, monitoreo de seguridad y evaluación de daños.
17 DE JULIO DE 2025 / Gemini
Veo 3, el modelo de generación de video de IA de Google más reciente, ahora está disponible en versión preliminar pagada a través de la API de Gemini y Google AI Studio. Presentado en Google I/O 2025, Veo 3 puede generar tanto video como audio sincronizado, y puede incluir diálogos, sonidos de fondo e incluso ruidos de animales. Este modelo ofrece efectos visuales realistas, iluminación natural y física, con una sincronización de labios y un sonido precisos que coinciden con la acción en pantalla.
16 DE JULIO DE 2025 / Gemini
El Agent Development Kit (ADK) actualizado simplifica y acelera el proceso de creación de agentes de IA proporcionando a la CLI una comprensión profunda y rentable del marco de trabajo del ADK, lo que permite a los desarrolladores crear, generar, probar y mejorar rápidamente los agentes funcionales a través de indicaciones conversacionales, con lo que se elimina la fricción y se mantiene a los agentes en un estado de “flujo” productivo.
14 DE JULIO DE 2025 / Gemini
El modelo de texto Gemini Embedding ahora está disponible de forma general en la API de Gemini y Vertex AI. Este versátil modelo se ha clasificado constantemente como el número 1 en el ranking multilingüe de MTEB desde su lanzamiento experimental en marzo, admite más de 100 idiomas, tiene una longitud máxima de token de entrada de 2,048 y tiene un precio de USD 0.15 por 1 millón de tokens de entrada.
10 DE JULIO DE 2025 / Cloud
Las actualizaciones en Firebase Studio incluyen nuevos modos de agente, soporte fundamental para el protocolo de contexto de modelo (MCP) e integración de Gemini CLI, todos diseñados para redefinir el desarrollo asistido por IA, lo que permite a los desarrolladores crear aplicaciones de pila completa a partir de una sola indicación e integrar potentes capacidades de IA directamente en su flujo de trabajo.
9 DE JULIO DE 2025 / Gemma
T5Gemma es una nueva familia de LLM de codificador-decodificador desarrollados mediante la conversión y adaptación de modelos preentrenados de solo decodificador basados en el marco Gemma 2, que ofrecen un rendimiento y una eficiencia superiores en comparación con sus contrapartes de solo decodificador, en particular para tareas que requieren una profunda comprensión de entrada, como resúmenes y traducción.
7 DE JULIO DE 2025 / Gemini
El nuevo modo por lotes en la API de Gemini está diseñado para cargas de trabajo de IA de alto rendimiento y no críticas para la latencia, simplificando los trabajos grandes mediante el manejo de la programación y el procesamiento, y haciendo que tareas como el análisis de datos, la creación masiva de contenido y la evaluación de modelos sean más rentables y escalables, para que los desarrolladores puedan procesar grandes volúmenes de datos de manera eficiente.