Pesquisa

30 resultados

Apagar filtros
  • 26 DE JUNHO DE 2025 / AI

    Desbloqueie insights mais profundos com a nova biblioteca de cliente do Python para Data Commons

    O Google lançou uma nova biblioteca de cliente do Python para Data Commons, um gráfico de conhecimento de código aberto que unifica dados estatísticos públicos e melhora a forma como os desenvolvedores de dados podem usar o Data Commons ao oferecer recursos melhores, suporte a instâncias personalizadas e acesso mais fácil a uma vasta gama de variáveis estatísticas. E tudo isso foi desenvolvido com contribuições da The ONE Campaign.

    data-commons-python-library-meta
  • 24 DE JUNHO DE 2025 / Gemini

    Turbine seus notebooks: o novo Google Colab com foco em IA já está disponível para todos

    O novo Google Colab com foco em IA aumenta a produtividade com melhorias promovidas por recursos como consulta iterativa para codificação conversacional, um Agente de ciência de dados de última geração para fluxos de trabalho autônomos e transformação de código sem esforço. Os usuários iniciais relatam um grande aumento de produtividade, projetos de ML acelerados, depuração de código mais rápida e criação de visualizações de alta qualidade sem esforço.

    Supercharge your notebooks: The new AI-first Google Colab is now available to everyone
  • 24 DE JUNHO DE 2025 / Kaggle

    Uso do KerasHub para fluxos de trabalho simples de aprendizado de máquina de ponta a ponta com o Hugging Face

    O KerasHub oferece aos usuários a capacidade de misturar e combinar arquiteturas e pesos de modelos em diferentes frameworks de aprendizado de máquina, permitindo que pontos de verificação de origens como o Hugging Face Hub (incluindo aqueles criados com o PyTorch) sejam carregados em modelos Keras para uso com JAX, PyTorch ou TensorFlow. Essa flexibilidade significa que você pode aproveitar uma vasta gama de modelos ajustados da comunidade, mantendo o controle total sobre o framework de back-end escolhido.

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning
  • 23 DE JUNHO DE 2025 / Kaggle

    Inovação multilíngue em LLMs: como os modelos abertos ajudam a desbloquear a comunicação global

    Os desenvolvedores adaptam LLMs como o Gemma para diversos idiomas e contextos culturais, demonstrando o potencial da IA para preencher lacunas de comunicação global ao lidar com desafios como tradução de textos antigos, localização de compreensão matemática e melhoria da sensibilidade cultural na tradução de letras de música.

    Multilingual innovation in LLMs: How open models help unlock global communication
  • 20 DE MAIO DE 2025 / Gemini

    Totalmente reformulado: Google Colab com foco em IA

    O Google Colab está lançando uma versão reformulada com foco em IA no Google I/O, que traz um colaborador agêntico habilitado pelo Gemini 2.5 Flash com recursos de consulta iterativa, o upgrade do Agente de ciência de dados, transformação de código sem esforço e métodos de interação flexíveis com o objetivo de melhorar significativamente os fluxos de trabalho de codificação.

    Google Colab's reimagined Al-first experience
  • 15 DE ABRIL DE 2025 / Cloud

    Apigee anuncia disponibilidade geral do APIM Extension Processor

    O Apigee Extension Processor aprimora os recursos do Apigee, permitindo o gerenciamento de streaming do gRPC e a integração aos serviços do Google Cloud por meio do Cloud Load Balancing. Isso possibilita a aplicação de políticas do Apigee a um conjunto mais amplo de serviços de back-end e aprimora o acesso seguro à infraestrutura do Google Cloud.

    Apigee-API-Hub-Feature
  • 8 DE ABRIL DE 2025 / Cloud

    Conectores simplificados do Dataflow com o Managed I/O

    O Managed I/O do Google Cloud Dataflow simplifica o uso de conectores de E/S do Apache Beam ao atualizar automaticamente os conectores para as versões mais recentes e fornecer uma API padronizada, otimizando os conectores especificamente para o Dataflow. Isso garante um desempenho eficiente, reduz a necessidade de configuração manual e possibilita que os usuários se concentrem na lógica do pipeline.

    Cloud-2-meta
  • 25 DE MARÇO DE 2025 / Gemini

    Apresentamos o TxGemma: modelos abertos para melhorar o desenvolvimento terapêutico

    O Google DeepMind lança o TxGemma, que se baseia no Gemma e prevê propriedades terapêuticas, e o Agentic-Tx, que é habilitado pelo Gemini 2.0 Pro e lida com a resolução de problemas complexos de pesquisa usando ferramentas avançadas.

    TxGemma
  • 13 DE MARÇO DE 2025 / Gemini

    Desbloqueie mundos de bônus com o Gemini para o quebra-cabeça do Google I/O

    O quebra-cabeça do Google I/O de 2025 usou a API Gemini para gerar enigmas dinâmicos e desbloquear mundos de bônus, melhorando o engajamento do jogador e a escalonabilidade. Veja o que nossos desenvolvedores aprenderam sobre o uso eficaz da API Gemini, incluindo criatividade, design e estratégias de implementação.

    IO-2025-puzzle-how-its-made
  • 15 DE JANEIRO DE 2025 / AI

    Vertex AI RAG Engine: uma ferramenta para desenvolvedores

    Vertex AI RAG Engine, um serviço de orquestração gerenciado, agiliza o processo de recuperação e alimentação de informações relevantes para grandes modelos de linguagem. Isso permite que os desenvolvedores criem aplicativos de IA generativos robustos e fundamentados que garantem que as respostas sejam fundamentadas em fatos.

    Cloud-Vertex-AI-Sequence-Light