23 resultados
MAR 25, 2025 / Gemini
Google DeepMind releases TxGemma, built on Gemma, which predicts therapeutic properties, and Agentic-Tx, powered by Gemini 2.0 Pro, which tackles complex research problem-solving with advanced tools.
MAR 12, 2025 / Gemma
O Gemma 3 é uma versão nova e aprimorada da família de modelos abertos Gemma, com multimodalidade, janelas de contexto mais longas e recursos de linguagem avançados, com vários tamanhos e opções de implantação para os desenvolvedores experimentarem.
MAR 12, 2025 / Gemma
O ShieldGemma 2, baseado no Gemma 3, é um modelo com quatro bilhões de parâmetros que pode ser usado como filtro de entrada para modelos de visão-linguagem ou filtro de saída para sistemas de geração de imagens e que é projetado para responder a uma ampla gama de imagens diversificadas e com nuances.
MAR 12, 2025 / Gemma
O Gemma 3 1B, um novo modelo de linguagem pequeno para aplicativos da Web e para dispositivos móveis via Google AI Edge, já está disponível e oferece mais eficiência, desempenho aprimorado e disponibilidade off-line.
FEB 19, 2025 / Gemma
O modelo de visão-linguagem atualizado PaliGemma 2 mix já está disponível, oferecendo recursos como legendagem de imagens, OCR e detecção de objetos de vários tamanhos.
FEB 13, 2025 / Gemma
Um guia prático para criar um sistema de IA agêntica, um tipo de IA que pode tomar suas próprias decisões e usar ferramentas externas para atingir metas, baseado no Gemma 2 e capaz de gerar conteúdo dinâmico para um mundo de jogo fictício.
DEC 20, 2024 / Gemma
As equipes da AI Singapore e do INSAIT utilizaram o Gemma, uma família de modelos de linguagem de código aberto, para criar LLMs adaptados às necessidades exclusivas de suas comunidades, em um show de inovação e inclusão na IA.
DEC 05, 2024 / Gemma
O PaliGemma 2, a próxima evolução em modelos de visão-linguagem ajustáveis, traz novos recursos, como desempenho escalonável, legendas longas e recursos expandidos. Comece a trabalhar com modelos pré-treinados, documentação e tutoriais.
NOV 13, 2024 / Gemma
O lote contínuo do vLLM e o gerenciador de modelos do Dataflow otimizam o atendimento do LLM e simplificam o processo de implantação, oferecendo uma combinação poderosa para que os desenvolvedores criem pipelines de inferência de LLM de alto desempenho com mais eficiência.
OCT 22, 2024 / Gemma
O KerasHub é uma nova biblioteca unificada para modelos pré-treinados que promove um ecossistema mais coeso para os desenvolvedores.