Pesquisa

8 resultados

Apagar filtros
  • 30 DE JULHO DE 2025 / Gemini

    Apresentamos o LangExtract: uma biblioteca de extração de informações baseada no Gemini

    O LangExtract é uma nova biblioteca do Python de código aberto habilitada por modelos Gemini para extrair informações estruturadas de texto não estruturado, oferecendo embasamento preciso na fonte, saídas estruturadas confiáveis por meio da geração controlada, extração otimizada de contexto longo, visualização interativa e suporte flexível a back-ends de LLMs.

    LangExtract_meta
  • 9 DE JULHO DE 2025 / Gemma

    T5Gemma: uma nova coleção de modelos Gemma codificadores-decodificadores

    O T5Gemma é uma nova família de LLMs codificadores-decodificadores desenvolvida por meio da conversão e adaptação de modelos somente decodificadores pré-treinados com base no framework do Gemma 2. Ele oferece desempenho e eficiência superiores em comparação com seus equivalentes somente decodificadores, em particular para tarefas que exigem compreensão profunda de entradas, como resumos e traduções.

    T5Gemma: A New Collection of Encoder-Decoder Gemma Models
  • 7 DE JULHO DE 2025 / Gemini

    Modo de lote na API Gemini: processe mais por menos

    O novo modo de lote na API Gemini foi projetado para cargas de trabalho de IA de alta capacidade de processamento e não críticas em relação à latência, simplificando jobs grandes ao lidar com o agendamento e processamento. Além disso, ele torna tarefas como análise de dados, criação de conteúdo em massa e avaliação de modelos mais econômicas e escalonáveis, para que os desenvolvedores possam processar grandes volumes de dados com eficiência.

    Scale your AI workloads with batch mode in the Gemini API
  • 23 DE JUNHO DE 2025 / Kaggle

    Inovação multilíngue em LLMs: como os modelos abertos ajudam a desbloquear a comunicação global

    Os desenvolvedores adaptam LLMs como o Gemma para diversos idiomas e contextos culturais, demonstrando o potencial da IA para preencher lacunas de comunicação global ao lidar com desafios como tradução de textos antigos, localização de compreensão matemática e melhoria da sensibilidade cultural na tradução de letras de música.

    Multilingual innovation in LLMs: How open models help unlock global communication
  • 29 DE ABRIL DE 2025 / Cloud

    Anunciando a disponibilidade geral do Llama 4 como MaaS no Vertex AI

    O Llama 4, o avançado modelo de linguagem grande da Meta, já está disponível como uma API totalmente gerenciada na Vertex AI, simplificando a implantação e o gerenciamento. A API Llama 3.3 70B gerenciada também está geralmente disponível, oferecendo mais flexibilidade aos usuários.

    Announcing the general availability of Llama 4 MaaS on Vertex AI
  • 15 DE JANEIRO DE 2025 / AI

    Vertex AI RAG Engine: uma ferramenta para desenvolvedores

    Vertex AI RAG Engine, um serviço de orquestração gerenciado, agiliza o processo de recuperação e alimentação de informações relevantes para grandes modelos de linguagem. Isso permite que os desenvolvedores criem aplicativos de IA generativos robustos e fundamentados que garantem que as respostas sejam fundamentadas em fatos.

    Cloud-Vertex-AI-Sequence-Light
  • 20 DE DEZEMBRO DE 2024 / Gemma

    Além do inglês: como os modelos abertos Gemma estão preenchendo a lacuna linguística

    As equipes da AI Singapore e do INSAIT utilizaram o Gemma, uma família de modelos de linguagem de código aberto, para criar LLMs adaptados às necessidades exclusivas de suas comunidades, em um show de inovação e inclusão na IA.

    Gemma-SEALION
  • 8 DE NOVEMBRO DE 2024 / Gemini

    O Gemini já está acessível na biblioteca OpenAI

    Os desenvolvedores já podem acessar e criar com os mais recentes modelos Gemini por meio da biblioteca OpenAI e da API REST. Atualize seu código com três linhas para começar.

    Gemini-Social-2