Pesquisa

32 resultados

Apagar filtros
  • 12 DE AGOSTO DE 2025 / Google Labs

    Conheça o crítico mais severo e também o aliado mais valioso do Jules

    O recurso de crítica do Jules aborda problemas potenciais, como bugs sutis e casos de borda não detectados no código gerado por IA, atuando como um colega revisor durante o processo de geração. Essa "geração aprimorada por crítica" significa que as alterações de código propostas passam por uma revisão adversária, permitindo que o Jules melhore sua saída e, consequentemente, entregue um código pré-revisado de qualidade mais alta.

    Jules critic agent
  • 30 DE JULHO DE 2025 / Gemini

    Gemini Embedding: habilitação do RAG e engenharia de contexto

    O modelo Gemini Embedding aprimora os aplicativos de IA, particularmente por meio da engenharia de contexto, que está sendo adotada com sucesso por várias organizações em todos os setores para habilitar sistemas sensíveis a contexto, levando a melhorias significativas de desempenho, acurácia e eficiência.

    Gemini Embedding: Powering RAG and context engineering
  • 26 DE JUNHO DE 2025 / AI

    Desbloqueie insights mais profundos com a nova biblioteca de cliente do Python para Data Commons

    O Google lançou uma nova biblioteca de cliente do Python para Data Commons, um gráfico de conhecimento de código aberto que unifica dados estatísticos públicos e melhora a forma como os desenvolvedores de dados podem usar o Data Commons ao oferecer recursos melhores, suporte a instâncias personalizadas e acesso mais fácil a uma vasta gama de variáveis estatísticas. E tudo isso foi desenvolvido com contribuições da The ONE Campaign.

    data-commons-python-library-meta
  • 24 DE JUNHO DE 2025 / Kaggle

    Uso do KerasHub para fluxos de trabalho simples de aprendizado de máquina de ponta a ponta com o Hugging Face

    O KerasHub oferece aos usuários a capacidade de misturar e combinar arquiteturas e pesos de modelos em diferentes frameworks de aprendizado de máquina, permitindo que pontos de verificação de origens como o Hugging Face Hub (incluindo aqueles criados com o PyTorch) sejam carregados em modelos Keras para uso com JAX, PyTorch ou TensorFlow. Essa flexibilidade significa que você pode aproveitar uma vasta gama de modelos ajustados da comunidade, mantendo o controle total sobre o framework de back-end escolhido.

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning
  • 24 DE JUNHO DE 2025 / Gemini

    Turbine seus notebooks: o novo Google Colab com foco em IA já está disponível para todos

    O novo Google Colab com foco em IA aumenta a produtividade com melhorias promovidas por recursos como consulta iterativa para codificação conversacional, um Agente de ciência de dados de última geração para fluxos de trabalho autônomos e transformação de código sem esforço. Os usuários iniciais relatam um grande aumento de produtividade, projetos de ML acelerados, depuração de código mais rápida e criação de visualizações de alta qualidade sem esforço.

    Supercharge your notebooks: The new AI-first Google Colab is now available to everyone
  • 23 DE JUNHO DE 2025 / Kaggle

    Inovação multilíngue em LLMs: como os modelos abertos ajudam a desbloquear a comunicação global

    Os desenvolvedores adaptam LLMs como o Gemma para diversos idiomas e contextos culturais, demonstrando o potencial da IA para preencher lacunas de comunicação global ao lidar com desafios como tradução de textos antigos, localização de compreensão matemática e melhoria da sensibilidade cultural na tradução de letras de música.

    Multilingual innovation in LLMs: How open models help unlock global communication
  • 20 DE MAIO DE 2025 / Gemini

    Totalmente reformulado: Google Colab com foco em IA

    O Google Colab está lançando uma versão reformulada com foco em IA no Google I/O, que traz um colaborador agêntico habilitado pelo Gemini 2.5 Flash com recursos de consulta iterativa, o upgrade do Agente de ciência de dados, transformação de código sem esforço e métodos de interação flexíveis com o objetivo de melhorar significativamente os fluxos de trabalho de codificação.

    Google Colab's reimagined Al-first experience
  • 15 DE ABRIL DE 2025 / Cloud

    Apigee anuncia disponibilidade geral do APIM Extension Processor

    O Apigee Extension Processor aprimora os recursos do Apigee, permitindo o gerenciamento de streaming do gRPC e a integração aos serviços do Google Cloud por meio do Cloud Load Balancing. Isso possibilita a aplicação de políticas do Apigee a um conjunto mais amplo de serviços de back-end e aprimora o acesso seguro à infraestrutura do Google Cloud.

    Apigee-API-Hub-Feature
  • 8 DE ABRIL DE 2025 / Cloud

    Conectores simplificados do Dataflow com o Managed I/O

    O Managed I/O do Google Cloud Dataflow simplifica o uso de conectores de E/S do Apache Beam ao atualizar automaticamente os conectores para as versões mais recentes e fornecer uma API padronizada, otimizando os conectores especificamente para o Dataflow. Isso garante um desempenho eficiente, reduz a necessidade de configuração manual e possibilita que os usuários se concentrem na lógica do pipeline.

    Cloud-2-meta
  • 25 DE MARÇO DE 2025 / Gemini

    Apresentamos o TxGemma: modelos abertos para melhorar o desenvolvimento terapêutico

    O Google DeepMind lança o TxGemma, que se baseia no Gemma e prevê propriedades terapêuticas, e o Agentic-Tx, que é habilitado pelo Gemini 2.0 Pro e lida com a resolução de problemas complexos de pesquisa usando ferramentas avançadas.

    TxGemma