177 resultados
14 DE JULIO DE 2025 / Gemini
The Gemini Embedding text model is now generally available in the Gemini API and Vertex AI. This versatile model has consistently ranked #1 on the MTEB Multilingual leaderboard since its experimental launch in March, supports over 100 languages, has a 2048 maximum input token length, and is priced at $0.15 per 1M input tokens.
10 DE JULIO DE 2025 / Gemini
GenAI Processors is a new open-source Python library from Google DeepMind designed to simplify the development of AI applications, especially those handling multimodal input and requiring real-time responsiveness, by providing a consistent "Processor" interface for all steps from input handling to model calls and output processing, for seamless chaining and concurrent execution.
10 DE JULIO DE 2025 / Cloud
Updates in Firebase Studio include new Agent modes, foundational support for the Model Context Protocol (MCP), and Gemini CLI integration, all designed to redefine AI-assisted development allow developers to create full-stack applications from a single prompt and integrate powerful AI capabilities directly into their workflow.
9 DE JULIO DE 2025 / Gemma
T5Gemma es una nueva familia de LLM de codificador-decodificador desarrollados mediante la conversión y adaptación de modelos preentrenados de solo decodificador basados en el marco Gemma 2, que ofrecen un rendimiento y una eficiencia superiores en comparación con sus contrapartes de solo decodificador, en particular para tareas que requieren una profunda comprensión de entrada, como resúmenes y traducción.
7 DE JULIO DE 2025 / Gemini
El nuevo modo por lotes en la API de Gemini está diseñado para cargas de trabajo de IA de alto rendimiento y no críticas para la latencia, simplificando los trabajos grandes mediante el manejo de la programación y el procesamiento, y haciendo que tareas como el análisis de datos, la creación masiva de contenido y la evaluación de modelos sean más rentables y escalables, para que los desarrolladores puedan procesar grandes volúmenes de datos de manera eficiente.
26 DE JUNIO DE 2025 / Gemma
El modelo Gemma 3n se lanzó por completo, aprovechando el éxito de los modelos Gemma anteriores y brindando capacidades multimodales integradas y avanzadas a dispositivos perimetrales con un rendimiento sin precedentes. Explora las innovaciones de Gemma 3n, incluida su arquitectura que prioriza los dispositivos móviles, la tecnología MatFormer, incorporaciones por capas, el uso compartido de caché KV y los nuevos codificadores de audio y visión MobileNet-V5, y cómo los desarrolladores pueden comenzar a crear hoy mismo.
26 DE JUNIO DE 2025 / AI
Google lanzó una nueva biblioteca cliente de Python para Data Commons, un grafo de conocimiento de código abierto que unifica los datos estadísticos públicos y mejora la forma en que los desarrolladores de datos pueden aprovechar Data Commons ofreciendo funciones mejoradas, soporte para instancias personalizadas y un acceso más fácil a una amplia gama de variables estadísticas, desarrolladas con contribuciones de The ONE Campaign.
25 DE JUNIO DE 2025 / Gemini
Un prototipo de investigación que simula un sistema operativo neural genera una interfaz de usuario en tiempo real que se adapta a las interacciones del usuario con Gemini 2.5 Flash-Lite, utilizando el rastreo de interacciones para la conciencia contextual, la transmisión de la interfaz de usuario para la capacidad de respuesta y el logro de estado con un gráfico de interfaz de usuario en memoria.
24 DE JUNIO DE 2025 / Gemini
La nueva Google Colab con prioridad en la IA aumenta la productividad con mejoras impulsadas por funciones como las consultas iterativas para codificación conversacional, un Agente de ciencia de datos de última generación para flujos de trabajo autónomos y transformación de la codificación simplificada. Los usuarios pioneros informan un significativo aumento en la productividad a través de la aceleración en los proyectos de AA, depuración más rápida del código y creación sin esfuerzo de visualizaciones de alta calidad.
24 DE JUNIO DE 2025 / Kaggle
KerasHub permite a los usuarios mezclar y combinar arquitecturas y pesos de modelos en diferentes marcos de trabajo de aprendizaje automático, de modo que los puntos de control de fuentes como Hugging Face Hub (incluidos los creados con PyTorch) se puedan cargar en los modelos de Keras para usar con JAX, PyTorch o TensorFlow. Gracias a esta flexibilidad, puedes aprovechar una amplia gama de modelos ajustados por los miembros de la comunidad, al tiempo que mantienes un control total sobre el marco de trabajo de backend elegido.