146 resultados
OCT 03, 2024 / Gemma
O Google está criando modelos de IA, com foco no Gemma, para preencher as lacunas de comunicação entre os idiomas.
OCT 03, 2024 / Gemini
O Google está lançando (em GA) um novo modelo Gemini, o 1.5 Flash-8B, nosso menor modelo de produção com desempenho de SOTA para seu tamanho.
OCT 02, 2024 / Gemma
A temporada apresenta novas aplicações do Gemma, incluindo um assistente pessoal de código de IA e projetos para tarefas em idiomas diferentes do inglês e processamento de e-mails comerciais.
SEP 26, 2024 / AI
O Vertex AI Prompt Optimizer, um novo serviço de engenharia de prompts automatizado e gerenciado, pode ajudar a economizar tempo e esforços na engenharia de prompts, garantindo prompts funcionais prontos para aplicativos de IA generativa.
SEP 24, 2024 / Gemini
Saiba mais sobre as atualizações mais recentes dos modelos Gemini do Google, incluindo redução de preços do Gemini 1.5 Pro, aumento dos limites de utilização, melhoria do desempenho, melhoria da qualidade e muito mais.
SEP 18, 2024 / Mobile
A nova API Picker permite a seleção segura de fotos, enquanto a API Library se concentra no gerenciamento de fotos e vídeos obtidos por upload pelo aplicativo.
SEP 05, 2024 / Gemma
O PaliGemma, um modelo de visão-linguagem (VLM, na sigla em inglês) leve, é capaz de receber entradas de imagem e texto e produzir uma resposta de texto, adicionando um modelo de visão extra ao modelo BaseGemma.
SEP 04, 2024 / Google AI Edge
O TensorFlow Lite, agora com o nome LiteRT, continua sendo o ambiente de execução de alto desempenho para IA no dispositivo, mas agora tem uma visão expandida para dar suporte a modelos criados em PyTorch, JAX e Keras.
SEP 03, 2024 / DeepMind
A geração controlada para o Gemini 1.5 Pro e Flash melhora a transferência de equipes de ciência de dados para desenvolvedores, melhorando a integração da saída de IA e garantindo que as respostas geradas por IA sigam um esquema definido.
AUG 29, 2024 / Gemma
A arquitetura do RecurrentGemma apresenta um modelo híbrido que combina recorrências lineares fechadas com atenção de janela deslizante local; um recurso extremamente valioso quando há uma preocupação com o esgotamento da janela de contexto do LLM.