21 resultados
7 DE OUTUBRO DE 2025 / AI
Para evitar gargalos de dados ao treinar modelos grandes, este guia apresenta o Grain e o ArrayRecord para a criação de pipelines de dados de alto desempenho.
16 DE SETEMBRO DE 2025 / AI
A recente versão 0.2.0 do Agent Development Kit (ADK) para Java do Google adiciona uma integração co...
4 DE SETEMBRO DE 2025 / AI
Saiba como usar o EmbeddingGemma do Google, um modelo aberto eficiente, com o Dataflow do Google Cloud e bancos de dados vetoriais, como o AlloyDB, para criar pipelines de ingestão de conhecimento escalonáveis e em tempo real.
12 DE AGOSTO DE 2025 / Kaggle
Crie e treine um modelo GPT2 a partir do zero usando o JAX em TPUs do Google, com um notebook do Python completo para Colab ou Kaggle de nível gratuito. Saiba como definir uma malha de hardware, parâmetros de modelo de partição e dados de entrada para paralelismo de dados e como otimizar o processo de treinamento de modelos.
17 DE JULHO DE 2025 / AI
16 DE JULHO DE 2025 / AI
O recurso "logprobs" foi oficialmente introduzido na API Gemini na Vertex AI. Ele fornece insights sobre a tomada de decisões do modelo, mostrando pontuações de probabilidade para tokens escolhidos e alternativos. Este guia passo a passo mostra como ativar e interpretar esse recurso e aplicá-lo a casos de uso poderosos, como classificação confiável, preenchimento automático dinâmico e avaliação quantitativa de RAG.
24 DE JUNHO DE 2025 / Kaggle
O KerasHub oferece aos usuários a capacidade de misturar e combinar arquiteturas e pesos de modelos em diferentes frameworks de aprendizado de máquina, permitindo que pontos de verificação de origens como o Hugging Face Hub (incluindo aqueles criados com o PyTorch) sejam carregados em modelos Keras para uso com JAX, PyTorch ou TensorFlow. Essa flexibilidade significa que você pode aproveitar uma vasta gama de modelos ajustados da comunidade, mantendo o controle total sobre o framework de back-end escolhido.
15 DE JANEIRO DE 2025 / AI
Vertex AI RAG Engine, um serviço de orquestração gerenciado, agiliza o processo de recuperação e alimentação de informações relevantes para grandes modelos de linguagem. Isso permite que os desenvolvedores criem aplicativos de IA generativos robustos e fundamentados que garantem que as respostas sejam fundamentadas em fatos.
23 DE DEZEMBRO DE 2024 / AI
A API Multimodal Live para Gemini 2.0 permite interações multimodais em tempo real entre humanos e computadores e pode ser usada para criar assistentes virtuais em tempo real e ferramentas educacionais adaptativas.
23 DE DEZEMBRO DE 2024 / AI
Saiba como criar uma ferramenta de pesquisa visual usando a API Multimodal Embeddings do Google e explore como aplicar essa tecnologia para pesquisar imagens, slides e muito mais.