Pesquisa

97 resultados

Apagar filtros
  • 9 DE ABRIL DE 2025 / Gemini

    Gemini 2.5 Flash e Pro, API Live e Veo 2 na API Gemini

    Atualizações na API Gemini, incluindo a prontidão para produção do Veo 2 para geração de vídeo, o pré-lançamento da API Live para interações em tempo real e o próximo modelo Gemini 2.5 Flash, juntamente com o Gemini 2.5 Pro existente, com o objetivo de aprimorar os recursos para desenvolvedores na criação de aplicativos de IA com modelos de pensamento aprimorados, interações dinâmicas e geração de vídeo de alta qualidade.

    Gemini-2.5-meta
  • 8 DE ABRIL DE 2025 / Cloud

    Conectores simplificados do Dataflow com o Managed I/O

    O Managed I/O do Google Cloud Dataflow simplifica o uso de conectores de E/S do Apache Beam ao atualizar automaticamente os conectores para as versões mais recentes e fornecer uma API padronizada, otimizando os conectores especificamente para o Dataflow. Isso garante um desempenho eficiente, reduz a necessidade de configuração manual e possibilita que os usuários se concentrem na lógica do pipeline.

    Cloud-2-meta
  • 25 DE MARÇO DE 2025 / Gemini

    Apresentamos o TxGemma: modelos abertos para melhorar o desenvolvimento terapêutico

    O Google DeepMind lança o TxGemma, que se baseia no Gemma e prevê propriedades terapêuticas, e o Agentic-Tx, que é habilitado pelo Gemini 2.0 Pro e lida com a resolução de problemas complexos de pesquisa usando ferramentas avançadas.

    TxGemma
  • 12 DE MARÇO DE 2025 / Gemma

    Apresentamos o Gemma 3: Guia para desenvolvedores

    O Gemma 3 é uma versão nova e aprimorada da família de modelos abertos Gemma, com multimodalidade, janelas de contexto mais longas e recursos de linguagem avançados, com vários tamanhos e opções de implantação para os desenvolvedores experimentarem.

    Gemma 3
  • 12 DE MARÇO DE 2025 / Gemma

    Mais seguro e multimodal: IA responsável com o Gemma

    O ShieldGemma 2, baseado no Gemma 3, é um modelo com quatro bilhões de parâmetros que pode ser usado como filtro de entrada para modelos de visão-linguagem ou filtro de saída para sistemas de geração de imagens e que é projetado para responder a uma ampla gama de imagens diversificadas e com nuances.

    SheildGemma2
  • 12 DE MARÇO DE 2025 / Gemini

    Experimente a geração de imagens nativa do Gemini 2.0 Flash

    O recurso experimental de geração de imagens nativa do Gemini 2.0 Flash, que permite a combinação de texto e imagens, a edição de imagens por conversação e o uso de conhecimento do mundo real para visuais contextuais, já está disponível para testes pelos desenvolvedores por meio do Google AI Studio e da API Gemini.

    Gemini 2.0 Flash native image generation
  • 11 DE MARÇO DE 2025 / Cloud

    Uso do JSON no BigQuery para pipelines do Dataflow do MongoDB otimizados

    Um aprimoramento dos modelos do Google Cloud Dataflow para o MongoDB Atlas permite a integração direta de dados JSON ao BigQuery, eliminando transformações complexas de dados, reduzindo custos operacionais e melhorando o desempenho de consultas para os usuários.

    MongoDB-BigQuery
  • 7 DE MARÇO DE 2025 / Gemini

    Incorporação de texto de última geração por meio da API Gemini

    O novo modelo experimental de texto Gemini Embedding, já disponível na API Gemini, alcança as mais altas classificações no placar do Massive Text Embedding Benchmark (MTEB) e oferece suporte expandido a idiomas e incorporações de alta dimensão.

    Gemini spark
  • 3 DE MARÇO DE 2025 / Gemini

    Data Science Agent in Colab: The future of data analysis with Gemini

    The Data Science Agent in Google Colab, powered by Gemini, can now generate complete, working notebooks from simple natural language descriptions, so developers can automate data analysis tasks, saving time to focus on deriving insights.

    Colab-Gemini-Data-meta-alt
  • 25 DE FEVEREIRO DE 2025 / Gemini

    Comece a criar com o Gemini 2.0 Flash e Flash-Lite

    O Gemini 2.0 Flash-Lite já está disponível de forma geral na API Gemini para uso em produção no Google AI Studio e para clientes empresariais na Vertex AI. O 2.0 Flash-Lite oferece desempenho aprimorado em relação ao 1.5 Flash em comparativos de mercado de raciocínio, multimodal, matemática e factualidade. Para projetos que exigem janelas de contexto longo, o 2.0 Flash-Lite é uma solução com relação custo-benefício ainda melhor devido ao preço simplificado para prompts com mais de 128 mil tokens.

    Flash Family