48 resultados
12 DE AGOSTO DE 2025 / Kaggle
Crea y entrena un modelo GPT2 desde cero usando JAX en las TPU de Google, con un notebook completo de Python para Colab o Kaggle de nivel gratuito. Aprende a definir una malla de hardware, parámetros del modelo de partición y datos de entrada para el paralelismo de datos, y a optimizar el proceso de entrenamiento de modelos.
21 DE JULIO DE 2025 / Gemini
La función avanzada de Gemini para la segmentación de imágenes conversacionales permite una interacción intuitiva con datos visuales a través de la comprensión de frases complejas, lógica condicional y conceptos abstractos, agilizando la experiencia del desarrollador y abriendo puertas para nuevas aplicaciones en edición de medios, monitoreo de seguridad y evaluación de daños.
16 DE JULIO DE 2025 / AI
La función "logprobs" se introdujo oficialmente en la API de Gemini en Vertex AI. Proporciona información sobre la toma de decisiones del modelo al mostrar puntajes de probabilidad para tokens elegidos y alternativos. Esta guía paso a paso te mostrará cómo habilitar e interpretar esta función, y aplicarla a casos de uso poderosos, como la clasificación segura, el autocompletado dinámico y la evaluación cuantitativa de RAG.
16 DE JULIO DE 2025 / Gemini
El Agent Development Kit (ADK) actualizado simplifica y acelera el proceso de creación de agentes de IA proporcionando a la CLI una comprensión profunda y rentable del marco de trabajo del ADK, lo que permite a los desarrolladores crear, generar, probar y mejorar rápidamente los agentes funcionales a través de indicaciones conversacionales, con lo que se elimina la fricción y se mantiene a los agentes en un estado de “flujo” productivo.
14 DE JULIO DE 2025 / Cloud
El concentrador de APIs de Apigee y los portales para desarrolladores son partes distintas, pero interconectadas, de la plataforma Apigee que ayudan a las organizaciones a descubrir y administrar APIs para diferentes perfiles ficticios, revelando el potencial de la API y acelerando la innovación.
10 DE JULIO DE 2025 / Gemini
GenAI Processors es una nueva biblioteca Python de código abierto de Google DeepMind diseñada para simplificar el desarrollo de aplicaciones de IA, especialmente aquellas que manejan entradas multimodales y requieren capacidad de respuesta en tiempo real, al proporcionar una interfaz de “procesador” coherente para todos los pasos, desde el manejo de entradas hasta el procesamiento de llamadas y salidas de modelos, para un encadenamiento sin interrupciones y una ejecución simultánea.
26 DE JUNIO DE 2025 / AI
Google lanzó una nueva biblioteca cliente de Python para Data Commons, un grafo de conocimiento de código abierto que unifica los datos estadísticos públicos y mejora la forma en que los desarrolladores de datos pueden aprovechar Data Commons ofreciendo funciones mejoradas, soporte para instancias personalizadas y un acceso más fácil a una amplia gama de variables estadísticas, desarrolladas con contribuciones de The ONE Campaign.
25 DE JUNIO DE 2025 / Gemini
Un prototipo de investigación que simula un sistema operativo neural genera una interfaz de usuario en tiempo real que se adapta a las interacciones del usuario con Gemini 2.5 Flash-Lite, utilizando el rastreo de interacciones para la conciencia contextual, la transmisión de la interfaz de usuario para la capacidad de respuesta y el logro de estado con un gráfico de interfaz de usuario en memoria.
24 DE JUNIO DE 2025 / Kaggle
KerasHub permite a los usuarios mezclar y combinar arquitecturas y pesos de modelos en diferentes marcos de trabajo de aprendizaje automático, de modo que los puntos de control de fuentes como Hugging Face Hub (incluidos los creados con PyTorch) se puedan cargar en los modelos de Keras para usar con JAX, PyTorch o TensorFlow. Gracias a esta flexibilidad, puedes aprovechar una amplia gama de modelos ajustados por los miembros de la comunidad, al tiempo que mantienes un control total sobre el marco de trabajo de backend elegido.
24 DE JUNIO DE 2025 / Gemini
Gemini 2.5 Pro y Flash están transformando la robótica a través de la mejora de la codificación, el razonamiento y las capacidades multimodales, incluida la comprensión espacial. Estos modelos se utilizan para la comprensión semántica de escenas, la generación de código para el control de robots y la creación de aplicaciones interactivas con la API Live, con un fuerte énfasis en las mejoras de seguridad y las aplicaciones comunitarias.