237 resultados
14 DE JULIO DE 2025 / Gemini
El modelo de texto Gemini Embedding ahora está disponible de forma general en la API de Gemini y Vertex AI. Este versátil modelo se ha clasificado constantemente como el número 1 en el ranking multilingüe de MTEB desde su lanzamiento experimental en marzo, admite más de 100 idiomas, tiene una longitud máxima de token de entrada de 2,048 y tiene un precio de USD 0.15 por 1 millón de tokens de entrada.
10 DE JULIO DE 2025 / Gemini
GenAI Processors es una nueva biblioteca Python de código abierto de Google DeepMind diseñada para simplificar el desarrollo de aplicaciones de IA, especialmente aquellas que manejan entradas multimodales y requieren capacidad de respuesta en tiempo real, al proporcionar una interfaz de “procesador” coherente para todos los pasos, desde el manejo de entradas hasta el procesamiento de llamadas y salidas de modelos, para un encadenamiento sin interrupciones y una ejecución simultánea.
10 DE JULIO DE 2025 / Cloud
Las actualizaciones en Firebase Studio incluyen nuevos modos de agente, soporte fundamental para el protocolo de contexto de modelo (MCP) e integración de Gemini CLI, todos diseñados para redefinir el desarrollo asistido por IA, lo que permite a los desarrolladores crear aplicaciones de pila completa a partir de una sola indicación e integrar potentes capacidades de IA directamente en su flujo de trabajo.
9 DE JULIO DE 2025 / Gemma
T5Gemma es una nueva familia de LLM de codificador-decodificador desarrollados mediante la conversión y adaptación de modelos preentrenados de solo decodificador basados en el marco Gemma 2, que ofrecen un rendimiento y una eficiencia superiores en comparación con sus contrapartes de solo decodificador, en particular para tareas que requieren una profunda comprensión de entrada, como resúmenes y traducción.
7 DE JULIO DE 2025 / Gemini
El nuevo modo por lotes en la API de Gemini está diseñado para cargas de trabajo de IA de alto rendimiento y no críticas para la latencia, simplificando los trabajos grandes mediante el manejo de la programación y el procesamiento, y haciendo que tareas como el análisis de datos, la creación masiva de contenido y la evaluación de modelos sean más rentables y escalables, para que los desarrolladores puedan procesar grandes volúmenes de datos de manera eficiente.
26 DE JUNIO DE 2025 / Gemma
El modelo Gemma 3n se lanzó por completo, aprovechando el éxito de los modelos Gemma anteriores y brindando capacidades multimodales integradas y avanzadas a dispositivos perimetrales con un rendimiento sin precedentes. Explora las innovaciones de Gemma 3n, incluida su arquitectura que prioriza los dispositivos móviles, la tecnología MatFormer, incorporaciones por capas, el uso compartido de caché KV y los nuevos codificadores de audio y visión MobileNet-V5, y cómo los desarrolladores pueden comenzar a crear hoy mismo.
26 DE JUNIO DE 2025 / AI
Google lanzó una nueva biblioteca cliente de Python para Data Commons, un grafo de conocimiento de código abierto que unifica los datos estadísticos públicos y mejora la forma en que los desarrolladores de datos pueden aprovechar Data Commons ofreciendo funciones mejoradas, soporte para instancias personalizadas y un acceso más fácil a una amplia gama de variables estadísticas, desarrolladas con contribuciones de The ONE Campaign.
25 DE JUNIO DE 2025 / Gemini
Un prototipo de investigación que simula un sistema operativo neural genera una interfaz de usuario en tiempo real que se adapta a las interacciones del usuario con Gemini 2.5 Flash-Lite, utilizando el rastreo de interacciones para la conciencia contextual, la transmisión de la interfaz de usuario para la capacidad de respuesta y el logro de estado con un gráfico de interfaz de usuario en memoria.
24 DE JUNIO DE 2025 / Gemini
La nueva Google Colab con prioridad en la IA aumenta la productividad con mejoras impulsadas por funciones como las consultas iterativas para codificación conversacional, un Agente de ciencia de datos de última generación para flujos de trabajo autónomos y transformación de la codificación simplificada. Los usuarios pioneros informan un significativo aumento en la productividad a través de la aceleración en los proyectos de AA, depuración más rápida del código y creación sin esfuerzo de visualizaciones de alta calidad.
24 DE JUNIO DE 2025 / Kaggle
KerasHub permite a los usuarios mezclar y combinar arquitecturas y pesos de modelos en diferentes marcos de trabajo de aprendizaje automático, de modo que los puntos de control de fuentes como Hugging Face Hub (incluidos los creados con PyTorch) se puedan cargar en los modelos de Keras para usar con JAX, PyTorch o TensorFlow. Gracias a esta flexibilidad, puedes aprovechar una amplia gama de modelos ajustados por los miembros de la comunidad, al tiempo que mantienes un control total sobre el marco de trabajo de backend elegido.