Pesquisa

203 resultados

Apagar filtros
  • 16 DE JULHO DE 2025 / Cloud

    Modelo de base Marin da Stanford: o primeiro modelo totalmente aberto desenvolvido usando JAX

    O objetivo do projeto Marin é expandir a definição da palavra "aberto" na área de IA para incluir todo o processo científico, e não apenas o modelo em si, ao tornar toda a jornada de desenvolvimento acessível e reproduzível. Esse esforço, habilitado pelo framework JAX e por sua ferramenta Levanter, permite escrutínio aprofundado, confiança e criação usando modelos de base para promover um futuro mais transparente na pesquisa de IA.

    Stanford Marin project in JAX
  • 16 DE JULHO DE 2025 / Gemini

    Simplifique o fluxo de "vibe coding" de agentes com o ADK e o Gemini CLI

    O Agent Development Kit (ADK) atualizado simplifica e acelera o processo de criação de agentes de IA ao proporcionar ao CLI uma compreensão profunda do framework ADK por um custo mais baixo, permitindo que os desenvolvedores idealizem, gerem, testem e melhorem agentes funcionais rapidamente por meio de prompts de conversação, eliminando os atritos e mantendo-os em um estado mental produtivo.

    ADK + Gemini CLI: Supercharge Your Agent Building Vibe
  • 14 DE JULHO DE 2025 / Gemini

    Gemini Embedding com disponibilidade geral na API Gemini

    O modelo de texto Gemini Embedding já está geralmente disponível na API Gemini e na Vertex AI. Esse modelo versátil tem sido classificado consistentemente em primeiro lugar no placar Multilingual do MTEB desde seu lançamento experimental, em março. Ele dá suporte a mais de 100 idiomas, tem um comprimento máximo de token de entrada de 2048 e preço de US$ 0,15 por 1 milhão de tokens de entrada.

    Gemini Embedding now generally available in the Gemini API
  • 10 DE JULHO DE 2025 / Gemini

    Anunciamos o GenAI Processors: crie aplicativos Gemini poderosos e flexíveis

    O GenAI Processors é uma nova biblioteca Python de código aberto do Google DeepMind projetada para simplificar o desenvolvimento de aplicativos de IA, especialmente aqueles que lidam com entrada multimodal e exigem capacidade de resposta em tempo real, fornecendo uma interface "Processor" consistente para todas as etapas, desde o tratamento de entradas até as chamadas de modelos e o processamento da saída, para encadeamento contínuo e execução simultânea.

    Announcing GenAI Processors: Streamline your Gemini application development
  • 10 DE JULHO DE 2025 / Cloud

    Avanço no desenvolvimento da IA agêntica com o Firebase Studio

    As atualizações do Firebase Studio incluem novos modos de agente, suporte fundamental ao MCP (Model Context Protocol) e integração ao Gemini CLI, tudo projetado para redefinir o desenvolvimento assistido por IA, permitindo que os desenvolvedores criem aplicativos de pilha completa a partir de um único prompt e integrem recursos poderosos de IA diretamente a fluxos de trabalho.

    Advancing agentic AI development with Firebase Studio
  • 9 DE JULHO DE 2025 / Gemma

    T5Gemma: uma nova coleção de modelos Gemma codificadores-decodificadores

    O T5Gemma é uma nova família de LLMs codificadores-decodificadores desenvolvida por meio da conversão e adaptação de modelos somente decodificadores pré-treinados com base no framework do Gemma 2. Ele oferece desempenho e eficiência superiores em comparação com seus equivalentes somente decodificadores, em particular para tarefas que exigem compreensão profunda de entradas, como resumos e traduções.

    T5Gemma: A New Collection of Encoder-Decoder Gemma Models
  • 7 DE JULHO DE 2025 / Gemini

    Modo de lote na API Gemini: processe mais por menos

    O novo modo de lote na API Gemini foi projetado para cargas de trabalho de IA de alta capacidade de processamento e não críticas em relação à latência, simplificando jobs grandes ao lidar com o agendamento e processamento. Além disso, ele torna tarefas como análise de dados, criação de conteúdo em massa e avaliação de modelos mais econômicas e escalonáveis, para que os desenvolvedores possam processar grandes volumes de dados com eficiência.

    Scale your AI workloads with batch mode in the Gemini API
  • 26 DE JUNHO DE 2025 / Gemma

    Apresentamos o Gemma 3n: o guia para desenvolvedores

    O modelo Gemma 3n foi totalmente lançado, dando continuidade ao sucesso dos modelos Gemma anteriores e trazendo recursos multimodais avançados no dispositivo para dispositivos de borda com desempenho sem precedentes. Explore as inovações do Gemma 3n, incluindo arquitetura com foco em dispositivos móveis, tecnologia MatFormer, Per-Layer Embeddings, compartilhamento de cache KV e novos codificadores de áudio e visão MobileNet-V5, e veja como os desenvolvedores podem começar a criar com ele hoje mesmo.

    Introducing Gemma 3n: The Developer Guide
  • 26 DE JUNHO DE 2025 / AI

    Desbloqueie insights mais profundos com a nova biblioteca de cliente do Python para Data Commons

    O Google lançou uma nova biblioteca de cliente do Python para Data Commons, um gráfico de conhecimento de código aberto que unifica dados estatísticos públicos e melhora a forma como os desenvolvedores de dados podem usar o Data Commons ao oferecer recursos melhores, suporte a instâncias personalizadas e acesso mais fácil a uma vasta gama de variáveis estatísticas. E tudo isso foi desenvolvido com contribuições da The ONE Campaign.

    data-commons-python-library-meta
  • 25 DE JUNHO DE 2025 / Gemini

    Simulação de um sistema operacional neural com o Gemini 2.5 Flash-Lite

    Um protótipo de pesquisa que simula um sistema operacional neural gera IUs em tempo real, adaptando-se às interações do usuário com o Gemini 2.5 Flash-Lite, usando o rastreamento de interações para obter consciência contextual, fazendo o streaming da IU para garantir a capacidade de resposta e atingindo a manutenção de estado com um gráfico de IU na memória.

    Behind the prototype: Simulating a neural operating system with Gemini