35 resultados
12 DE AGOSTO DE 2025 / Kaggle
Crea y entrena un modelo GPT2 desde cero usando JAX en las TPU de Google, con un notebook completo de Python para Colab o Kaggle de nivel gratuito. Aprende a definir una malla de hardware, parámetros del modelo de partición y datos de entrada para el paralelismo de datos, y a optimizar el proceso de entrenamiento de modelos.
21 DE JULIO DE 2025 / Gemini
La función avanzada de Gemini para la segmentación de imágenes conversacionales permite una interacción intuitiva con datos visuales a través de la comprensión de frases complejas, lógica condicional y conceptos abstractos, agilizando la experiencia del desarrollador y abriendo puertas para nuevas aplicaciones en edición de medios, monitoreo de seguridad y evaluación de daños.
16 DE JULIO DE 2025 / Gemini
El Agent Development Kit (ADK) actualizado simplifica y acelera el proceso de creación de agentes de IA proporcionando a la CLI una comprensión profunda y rentable del marco de trabajo del ADK, lo que permite a los desarrolladores crear, generar, probar y mejorar rápidamente los agentes funcionales a través de indicaciones conversacionales, con lo que se elimina la fricción y se mantiene a los agentes en un estado de “flujo” productivo.
10 DE JULIO DE 2025 / Gemini
GenAI Processors es una nueva biblioteca Python de código abierto de Google DeepMind diseñada para simplificar el desarrollo de aplicaciones de IA, especialmente aquellas que manejan entradas multimodales y requieren capacidad de respuesta en tiempo real, al proporcionar una interfaz de “procesador” coherente para todos los pasos, desde el manejo de entradas hasta el procesamiento de llamadas y salidas de modelos, para un encadenamiento sin interrupciones y una ejecución simultánea.
25 DE JUNIO DE 2025 / Gemini
Un prototipo de investigación que simula un sistema operativo neural genera una interfaz de usuario en tiempo real que se adapta a las interacciones del usuario con Gemini 2.5 Flash-Lite, utilizando el rastreo de interacciones para la conciencia contextual, la transmisión de la interfaz de usuario para la capacidad de respuesta y el logro de estado con un gráfico de interfaz de usuario en memoria.
24 DE JUNIO DE 2025 / Kaggle
KerasHub permite a los usuarios mezclar y combinar arquitecturas y pesos de modelos en diferentes marcos de trabajo de aprendizaje automático, de modo que los puntos de control de fuentes como Hugging Face Hub (incluidos los creados con PyTorch) se puedan cargar en los modelos de Keras para usar con JAX, PyTorch o TensorFlow. Gracias a esta flexibilidad, puedes aprovechar una amplia gama de modelos ajustados por los miembros de la comunidad, al tiempo que mantienes un control total sobre el marco de trabajo de backend elegido.
24 DE JUNIO DE 2025 / Gemini
Gemini 2.5 Pro y Flash están transformando la robótica a través de la mejora de la codificación, el razonamiento y las capacidades multimodales, incluida la comprensión espacial. Estos modelos se utilizan para la comprensión semántica de escenas, la generación de código para el control de robots y la creación de aplicaciones interactivas con la API Live, con un fuerte énfasis en las mejoras de seguridad y las aplicaciones comunitarias.
28 DE MAYO DE 2025 / Android
Ya está disponible la compatibilidad con Google Pay dentro de Android WebView, comenzando con la versión 137 de WebView y Servicios de Play 25.18.30, lo que permite a los usuarios utilizar el procesador de pagos nativo de Google Pay dentro de los procesos web incorporados de confirmación de la compra.
28 DE MAYO DE 2025 / Gemini
El proyecto “Espejo Mágico” utiliza la API de Gemini, e incluye la API Live, la llamada a funciones y la conexión con la Búsqueda de Google, para crear una experiencia interactiva y dinámica, y demostrar el poder de los modelos de Gemini para generar imágenes, contar historias y brindar información en tiempo real a través de un objeto familiar.
20 DE MAYO DE 2025 / AI Edge
Se implementaron mejoras en LiteRT para aumentar el rendimiento y la eficiencia del modelo de IA en dispositivos móviles mediante la utilización efectiva de GPU y NPU, que ahora requieren mucho menos código, lo que permite una selección simplificada del acelerador de hardware y ofrece más capacidades para lograr un rendimiento óptimo en el dispositivo.