Pesquisa

366 resultados

Apagar filtros
  • 10 DE JULHO DE 2025 / Cloud

    Avanço no desenvolvimento da IA agêntica com o Firebase Studio

    As atualizações do Firebase Studio incluem novos modos de agente, suporte fundamental ao MCP (Model Context Protocol) e integração ao Gemini CLI, tudo projetado para redefinir o desenvolvimento assistido por IA, permitindo que os desenvolvedores criem aplicativos de pilha completa a partir de um único prompt e integrem recursos poderosos de IA diretamente a fluxos de trabalho.

    Advancing agentic AI development with Firebase Studio
  • 10 DE JULHO DE 2025 / Gemini

    Anunciamos o GenAI Processors: crie aplicativos Gemini poderosos e flexíveis

    O GenAI Processors é uma nova biblioteca Python de código aberto do Google DeepMind projetada para simplificar o desenvolvimento de aplicativos de IA, especialmente aqueles que lidam com entrada multimodal e exigem capacidade de resposta em tempo real, fornecendo uma interface "Processor" consistente para todas as etapas, desde o tratamento de entradas até as chamadas de modelos e o processamento da saída, para encadeamento contínuo e execução simultânea.

    Announcing GenAI Processors: Streamline your Gemini application development
  • 9 DE JULHO DE 2025 / Gemma

    T5Gemma: uma nova coleção de modelos Gemma codificadores-decodificadores

    O T5Gemma é uma nova família de LLMs codificadores-decodificadores desenvolvida por meio da conversão e adaptação de modelos somente decodificadores pré-treinados com base no framework do Gemma 2. Ele oferece desempenho e eficiência superiores em comparação com seus equivalentes somente decodificadores, em particular para tarefas que exigem compreensão profunda de entradas, como resumos e traduções.

    T5Gemma: A New Collection of Encoder-Decoder Gemma Models
  • 7 DE JULHO DE 2025 / Gemini

    Modo de lote na API Gemini: processe mais por menos

    O novo modo de lote na API Gemini foi projetado para cargas de trabalho de IA de alta capacidade de processamento e não críticas em relação à latência, simplificando jobs grandes ao lidar com o agendamento e processamento. Além disso, ele torna tarefas como análise de dados, criação de conteúdo em massa e avaliação de modelos mais econômicas e escalonáveis, para que os desenvolvedores possam processar grandes volumes de dados com eficiência.

    Scale your AI workloads with batch mode in the Gemini API
  • 26 DE JUNHO DE 2025 / AI

    Desbloqueie insights mais profundos com a nova biblioteca de cliente do Python para Data Commons

    O Google lançou uma nova biblioteca de cliente do Python para Data Commons, um gráfico de conhecimento de código aberto que unifica dados estatísticos públicos e melhora a forma como os desenvolvedores de dados podem usar o Data Commons ao oferecer recursos melhores, suporte a instâncias personalizadas e acesso mais fácil a uma vasta gama de variáveis estatísticas. E tudo isso foi desenvolvido com contribuições da The ONE Campaign.

    data-commons-python-library-meta
  • 26 DE JUNHO DE 2025 / Gemma

    Apresentamos o Gemma 3n: o guia para desenvolvedores

    O modelo Gemma 3n foi totalmente lançado, dando continuidade ao sucesso dos modelos Gemma anteriores e trazendo recursos multimodais avançados no dispositivo para dispositivos de borda com desempenho sem precedentes. Explore as inovações do Gemma 3n, incluindo arquitetura com foco em dispositivos móveis, tecnologia MatFormer, Per-Layer Embeddings, compartilhamento de cache KV e novos codificadores de áudio e visão MobileNet-V5, e veja como os desenvolvedores podem começar a criar com ele hoje mesmo.

    Introducing Gemma 3n: The Developer Guide
  • 25 DE JUNHO DE 2025 / Gemini

    Simulação de um sistema operacional neural com o Gemini 2.5 Flash-Lite

    Um protótipo de pesquisa que simula um sistema operacional neural gera IUs em tempo real, adaptando-se às interações do usuário com o Gemini 2.5 Flash-Lite, usando o rastreamento de interações para obter consciência contextual, fazendo o streaming da IU para garantir a capacidade de resposta e atingindo a manutenção de estado com um gráfico de IU na memória.

    Behind the prototype: Simulating a neural operating system with Gemini
  • 24 DE JUNHO DE 2025 / Gemini

    Turbine seus notebooks: o novo Google Colab com foco em IA já está disponível para todos

    O novo Google Colab com foco em IA aumenta a produtividade com melhorias promovidas por recursos como consulta iterativa para codificação conversacional, um Agente de ciência de dados de última geração para fluxos de trabalho autônomos e transformação de código sem esforço. Os usuários iniciais relatam um grande aumento de produtividade, projetos de ML acelerados, depuração de código mais rápida e criação de visualizações de alta qualidade sem esforço.

    Supercharge your notebooks: The new AI-first Google Colab is now available to everyone
  • 24 DE JUNHO DE 2025 / Gemini

    Gemini 2.5 para robótica e inteligência incorporada

    O Gemini 2.5 Pro e o Gemini 2.5 Flash estão transformando a robótica ao melhorar a codificação, o raciocínio e os recursos multimodais, incluindo a compreensão espacial. Esses modelos são usados na compreensão semântica de cenas, na geração de código para controle de robôs e na criação de aplicativos interativos com a API Live, com forte ênfase em melhorias de segurança e aplicativos da comunidade.

    Gemini 2.5 for robotics and embodied intelligence
  • 24 DE JUNHO DE 2025 / Kaggle

    Uso do KerasHub para fluxos de trabalho simples de aprendizado de máquina de ponta a ponta com o Hugging Face

    O KerasHub oferece aos usuários a capacidade de misturar e combinar arquiteturas e pesos de modelos em diferentes frameworks de aprendizado de máquina, permitindo que pontos de verificação de origens como o Hugging Face Hub (incluindo aqueles criados com o PyTorch) sejam carregados em modelos Keras para uso com JAX, PyTorch ou TensorFlow. Essa flexibilidade significa que você pode aproveitar uma vasta gama de modelos ajustados da comunidade, mantendo o controle total sobre o framework de back-end escolhido.

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning