40 resultados
15 DE AGOSTO DE 2025 / Google AI Studio
O Google anuncia a disponibilidade geral do Imagen 4, seu avançado modelo de texto para imagem, na API Gemini e no Google AI Studio, trazendo melhorias significativas de renderização de texto. O novo modelo Imagen 4 Fast, projetado para velocidade e geração rápida de imagens, já está disponível juntamente com o Imagen 4 e o Imagen 4 Ultra, que também dão suporte à geração de imagens com resolução de até 2K.
31 DE JULHO DE 2025 / AI
O Google apresenta o Veo 3 Fast, um modelo otimizado para velocidade e preço, juntamente com novos recursos de imagem para vídeo no Veo 3 e no Veo 3 Fast, permitindo que os desenvolvedores criem, com eficiência, conteúdo de vídeo de alta qualidade a partir de textos ou imagens estáticas, com preços que variam com base no modelo e na inclusão de áudio. E ele já está disponível na API Gemini.
24 DE JULHO DE 2025 / Google Labs
O Opal é uma nova ferramenta experimental do Google Labs que ajuda a elaborar prompts para criar miniapps dinâmicos com várias etapas com o uso de linguagem natural, eliminando a necessidade de código e permitindo que os usuários criem e implantem apps de IA compartilháveis com recursos avançados e integração total com as ferramentas existentes do Google.
17 DE JULHO DE 2025 / Gemini
O Veo 3, o mais recente modelo de geração de vídeo por IA do Google, já está disponível na versão de pré-lançamento paga por meio da API Gemini e do Google AI Studio. Revelado no Google I/O 2025, o Veo 3 é capaz de gerar vídeos e áudios sincronizados, incluindo diálogos, sons de fundo e até ruídos de animais. Esse modelo oferece visuais realistas, física e iluminação natural, com sincronização labial precisa e sons correspondentes à ação na tela.
14 DE JULHO DE 2025 / Gemini
O modelo de texto Gemini Embedding já está geralmente disponível na API Gemini e na Vertex AI. Esse modelo versátil tem sido classificado consistentemente em primeiro lugar no placar Multilingual do MTEB desde seu lançamento experimental, em março. Ele dá suporte a mais de 100 idiomas, tem um comprimento máximo de token de entrada de 2048 e preço de US$ 0,15 por 1 milhão de tokens de entrada.
10 DE JULHO DE 2025 / Cloud
As atualizações do Firebase Studio incluem novos modos de agente, suporte fundamental ao MCP (Model Context Protocol) e integração ao Gemini CLI, tudo projetado para redefinir o desenvolvimento assistido por IA, permitindo que os desenvolvedores criem aplicativos de pilha completa a partir de um único prompt e integrem recursos poderosos de IA diretamente a fluxos de trabalho.
9 DE JULHO DE 2025 / Gemma
O T5Gemma é uma nova família de LLMs codificadores-decodificadores desenvolvida por meio da conversão e adaptação de modelos somente decodificadores pré-treinados com base no framework do Gemma 2. Ele oferece desempenho e eficiência superiores em comparação com seus equivalentes somente decodificadores, em particular para tarefas que exigem compreensão profunda de entradas, como resumos e traduções.
7 DE JULHO DE 2025 / Gemini
O novo modo de lote na API Gemini foi projetado para cargas de trabalho de IA de alta capacidade de processamento e não críticas em relação à latência, simplificando jobs grandes ao lidar com o agendamento e processamento. Além disso, ele torna tarefas como análise de dados, criação de conteúdo em massa e avaliação de modelos mais econômicas e escalonáveis, para que os desenvolvedores possam processar grandes volumes de dados com eficiência.
26 DE JUNHO DE 2025 / Gemma
O modelo Gemma 3n foi totalmente lançado, dando continuidade ao sucesso dos modelos Gemma anteriores e trazendo recursos multimodais avançados no dispositivo para dispositivos de borda com desempenho sem precedentes. Explore as inovações do Gemma 3n, incluindo arquitetura com foco em dispositivos móveis, tecnologia MatFormer, Per-Layer Embeddings, compartilhamento de cache KV e novos codificadores de áudio e visão MobileNet-V5, e veja como os desenvolvedores podem começar a criar com ele hoje mesmo.
24 DE JUNHO DE 2025 / Gemini
O Gemini 2.5 Pro e o Gemini 2.5 Flash estão transformando a robótica ao melhorar a codificação, o raciocínio e os recursos multimodais, incluindo a compreensão espacial. Esses modelos são usados na compreensão semântica de cenas, na geração de código para controle de robôs e na criação de aplicativos interativos com a API Live, com forte ênfase em melhorias de segurança e aplicativos da comunidade.