Buscar

100 resultados

Borrar filtros
  • 9 DE SEPTIEMBRE DE 2025 / AI

    Más allá de la propagación hacia atrás: el poder simbólico de JAX revela nuevas fronteras en computación científica

    Si bien JAX es conocido como un framework popular para el desarrollo de modelos de IA a gran escala,...

    JAX_meta
  • 8 DE SEPTIEMBRE DE 2025 / AI

    Veo 3 y Veo 3 Fast: nuevos precios y configuraciones, y mejor resolución

    Hoy, lanzamos tres grandes actualizaciones de Veo: compatibilidad con salidas de formato vertical (r...

    veo3-generally-available-social
  • 5 DE SEPTIEMBRE DE 2025 / Mobile

    Google AI Edge Gallery: Ahora con audio y en Google Play

    Google AI Edge amplió la versión preliminar de Gemma 3n para incluir compatibilidad con audio. Los usuarios pueden reproducir contenido en su propio teléfono móvil utilizando Google AI Edge Gallery, que ahora está disponible en la versión beta abierta en Play Store.

    google-ai-edge-gallery
  • 4 DE SEPTIEMBRE DE 2025 / AI

    Del ajuste fino a la producción: Un flujo de procesamiento de incorporación escalable con Dataflow

    Aprende a usar EmbeddingGemma de Google, un modelo abierto eficiente, con Dataflow de Google Cloud y bases de datos vectoriales como AlloyDB para compilar flujos de procesamiento de ingestión de conocimiento escalables y en tiempo real.

    EG+Dataflow_Metadatal
  • 4 DE SEPTIEMBRE DE 2025 / Gemma

    Presentamos EmbeddingGemma: el mejor modelo abierto para integraciones en el dispositivo

    Presentamos EmbeddingGemma: un nuevo modelo de integración de Google diseñado para aplicaciones de IA eficientes en el dispositivo. Este modelo abierto es el modelo de integración multilingüe de solo texto de más alto rango con menos de 500 millones de parámetros en el punto de referencia MTEB, lo que permite usar funciones potentes, como la búsqueda semántica y RAG directamente en dispositivos móviles sin conexión a Internet.

    EmbeddingGemma_Metadata
  • 27 DE AGOSTO DE 2025 / Gemini

    Más allá de la terminal: La CLI de Gemini llega a Zed

    Google y Zed se asociaron para integrar la CLI de Gemini directamente en el editor de código Zed, llevando las funciones de IA directamente al editor para desarrolladores y posibilitando una codificación más rápida y enfocada, lo que permite realizar tareas como la generación de código in situ, respuestas instantáneas y chat natural dentro de la terminal con un flujo de trabajo de revisión fluido para los cambios generados por la IA.

    Gemini CLI is now integrated into Zed, bringing AI directly to your code editor
  • 27 DE AGOSTO DE 2025 / Google Labs

    Basta de realizar “pruebas de vibe” en tus LLM, es hora de hacer pruebas reales

    Stax, una herramienta para desarrolladores experimental, aborda la naturaleza insuficiente de los LLM de “pruebas de vibe” al agilizar el ciclo de vida de evaluación de LLM, lo que permite a los usuarios probar rigurosamente su pila de IA y tomar decisiones basadas en datos a través del etiquetado humano y los autoevaluadores escalables de LLM como juez.

    Stax
  • 18 DE AGOSTO DE 2025 / Gemini

    La herramienta de contexto de URL para la API de Gemini ahora está disponible de forma general

    La herramienta de contexto de URL de la API de Gemini ahora está disponible de forma general, lo que permite a los desarrolladores establecer indicaciones utilizando contenido web en lugar de cargas manuales. Esta versión amplía la compatibilidad con PDF e imágenes.

    URL context tool for Gemini API now generally available
  • 24 DE JULIO DE 2025 / Google Labs

    Presentamos Opal: describe, crea y comparte tus miniapps con IA

    Opal es una nueva herramienta experimental de Google Labs que te ayuda a redactar indicaciones para convertirlas en miniapps dinámicas de varios pasos utilizando un lenguaje natural, eliminando la necesidad de código y permitiendo a los usuarios crear e implementar aplicaciones de IA compartibles con funciones potentes y una integración perfecta con las herramientas existentes de Google.

    Opal Metadata card
  • 24 DE JULIO DE 2025 / AI

    La experiencia agéntica: ¿es MCP la herramienta adecuada para tu futuro con IA?

    Apigee ayuda a las empresas a integrar modelos de lenguaje grandes (LLM) en los ecosistemas de APIs existentes de forma segura y escalable, abordando desafíos como la autenticación y la autorización que no están completamente cubiertos por el protocolo de contexto de modelo (MCP) en evolución, y ofreciendo un ejemplo de servidor MCP de código abierto que demuestra cómo implementar seguridad de API lista para empresas para agentes de IA.

    The Agentic experience: Is MCP the right tool for your AI future?