83 resultados
OCT 03, 2024 / Gemma
O Google está criando modelos de IA, com foco no Gemma, para preencher as lacunas de comunicação entre os idiomas.
OCT 03, 2024 / Gemini
Google is rolling out (in GA) a new Gemini model, 1.5 Flash-8B, our smallest production model with SOTA performance for its size.
OCT 02, 2024 / Gemma
A temporada apresenta novas aplicações do Gemma, incluindo um assistente pessoal de código de IA e projetos para tarefas em idiomas diferentes do inglês e processamento de e-mails comerciais.
SEP 24, 2024 / Gemini
Saiba mais sobre as atualizações mais recentes dos modelos Gemini do Google, incluindo redução de preços do Gemini 1.5 Pro, aumento dos limites de utilização, melhoria do desempenho, melhoria da qualidade e muito mais.
SEP 05, 2024 / Gemma
O PaliGemma, um modelo de visão-linguagem (VLM, na sigla em inglês) leve, é capaz de receber entradas de imagem e texto e produzir uma resposta de texto, adicionando um modelo de visão extra ao modelo BaseGemma.
SEP 04, 2024 / Google AI Edge
O TensorFlow Lite, agora com o nome LiteRT, continua sendo o ambiente de execução de alto desempenho para IA no dispositivo, mas agora tem uma visão expandida para dar suporte a modelos criados em PyTorch, JAX e Keras.
SEP 03, 2024 / DeepMind
A geração controlada para o Gemini 1.5 Pro e Flash melhora a transferência de equipes de ciência de dados para desenvolvedores, melhorando a integração da saída de IA e garantindo que as respostas geradas por IA sigam um esquema definido.
AUG 29, 2024 / Gemma
A arquitetura do RecurrentGemma apresenta um modelo híbrido que combina recorrências lineares fechadas com atenção de janela deslizante local; um recurso extremamente valioso quando há uma preocupação com o esgotamento da janela de contexto do LLM.
AUG 22, 2024 / Gemma
O Gemma 2 é um novo pacote de modelos abertos que estabelece um novo padrão de desempenho e acessibilidade, superando os modelos populares com mais do que o dobro de seu tamanho.
AUG 16, 2024 / Gemma
Use o modelo de linguagem Gemma para avaliar o sentimento dos clientes, resumir conversas e ajudar na elaboração de respostas quase em tempo real com latência mínima.