20 resultados
MAR 25, 2025 / Gemini
Google DeepMind releases TxGemma, built on Gemma, which predicts therapeutic properties, and Agentic-Tx, powered by Gemini 2.0 Pro, which tackles complex research problem-solving with advanced tools.
MAR 03, 2025 / Gemini
The Data Science Agent in Google Colab, powered by Gemini, can now generate complete, working notebooks from simple natural language descriptions, so developers can automate data analysis tasks, saving time to focus on deriving insights.
JAN 07, 2025 / Matter
O lançamento da versão Beta pública das APIs Home para Android permite que os desenvolvedores criem experiências de casa inteligente melhores. Esse lançamento enfatiza os investimentos no Matter para melhorar a conectividade e a interoperabilidade dos dispositivos e aumentar a acessibilidade das casas inteligentes.
DEC 17, 2024 / Cloud
O Hub de APIs da Apigee é um repositório centralizado para todo o seu ecossistema de APIs, fornecendo uma única fonte confiável.
NOV 11, 2024 / Chrome Web
O primeiro Web AI Summit, realizado pelo Google em 18 de outubro de 2024, reuniu especialistas em modelos de aprendizado de máquina para navegadores da Web.
OCT 23, 2024 / Cloud
O Kit de ferramentas de IA generativa responsável está sendo expandido com novos recursos para apoiar o desenvolvimento de IA responsável em todos os LLMs, incluindo o SynthID Text para inserção de marcas d'água.
OCT 14, 2024 / Mobile
A 3ª temporada do podcast People of AI destacou histórias inspiradoras e curiosidades sobre as carreiras de pessoas que estão moldando o futuro da IA, com foco em temas como democratização da IA, IA para o bem, redefinição da inteligência e impacto da IA no trabalho.
SEP 26, 2024 / AI
O Vertex AI Prompt Optimizer, um novo serviço de engenharia de prompts automatizado e gerenciado, pode ajudar a economizar tempo e esforços na engenharia de prompts, garantindo prompts funcionais prontos para aplicativos de IA generativa.
AUG 16, 2024 / Gemma
Use o modelo de linguagem Gemma para avaliar o sentimento dos clientes, resumir conversas e ajudar na elaboração de respostas quase em tempo real com latência mínima.
AUG 13, 2024 / Mobile
O XNNPack, o mecanismo padrão de inferência de CPU do TensorFlow Lite, foi atualizado para melhorar o gerenciamento de memória e desempenho, permitir a colaboração entre processos e simplificar a API voltada ao usuário.