5 resultados
31 DE JULHO DE 2025 / AI
O Google apresenta o Veo 3 Fast, um modelo otimizado para velocidade e preço, juntamente com novos recursos de imagem para vídeo no Veo 3 e no Veo 3 Fast, permitindo que os desenvolvedores criem, com eficiência, conteúdo de vídeo de alta qualidade a partir de textos ou imagens estáticas, com preços que variam com base no modelo e na inclusão de áudio. E ele já está disponível na API Gemini.
17 DE JULHO DE 2025 / Gemini
O Veo 3, o mais recente modelo de geração de vídeo por IA do Google, já está disponível na versão de pré-lançamento paga por meio da API Gemini e do Google AI Studio. Revelado no Google I/O 2025, o Veo 3 é capaz de gerar vídeos e áudios sincronizados, incluindo diálogos, sons de fundo e até ruídos de animais. Esse modelo oferece visuais realistas, física e iluminação natural, com sincronização labial precisa e sons correspondentes à ação na tela.
10 DE JULHO DE 2025 / Gemini
O GenAI Processors é uma nova biblioteca Python de código aberto do Google DeepMind projetada para simplificar o desenvolvimento de aplicativos de IA, especialmente aqueles que lidam com entrada multimodal e exigem capacidade de resposta em tempo real, fornecendo uma interface "Processor" consistente para todas as etapas, desde o tratamento de entradas até as chamadas de modelos e o processamento da saída, para encadeamento contínuo e execução simultânea.
24 DE JUNHO DE 2025 / Gemini
O Imagen 4, o avançado modelo de texto para imagem do Google, já está disponível na versão de pré-lançamento paga por meio da API Gemini e do Google AI Studio, oferecendo melhorias significativas de qualidade, especialmente para geração de texto dentro de imagens. A família Imagen 4 inclui o Imagen 4 para tarefas gerais e o Imagen 4 Ultra para resposta a prompts de alta precisão, com todas as imagens geradas apresentando uma marca d'água SynthID não visível.
24 DE JUNHO DE 2025 / Gemini
O Gemini 2.5 Pro e o Gemini 2.5 Flash estão transformando a robótica ao melhorar a codificação, o raciocínio e os recursos multimodais, incluindo a compreensão espacial. Esses modelos são usados na compreensão semântica de cenas, na geração de código para controle de robôs e na criação de aplicativos interativos com a API Live, com forte ênfase em melhorias de segurança e aplicativos da comunidade.