Evolução do Kit de ferramentas de IA generativa responsável com novas ferramentas para todos os LLMs

OUT 23, 2024
Ryan Mullins Research Engineer and RAI Toolkit Tech Lead

A construção da IA de forma responsável é crucial. É por isso que criamos o Kit de ferramentas de GenAI responsável, com recursos para projetar, construir e avaliar modelos abertos de IA. E não vamos parar por aí! Agora, estamos expandindo o kit de ferramentas com novos recursos projetados para funcionar com qualquer LLM, seja no Gemma, Gemini ou qualquer outro modelo. Com esse conjunto de ferramentas e recursos, todos podem construir a IA de forma responsável, independentemente do modelo escolhido.


Vamos às novidades:

SynthID Text: inserção de marcas d'água e detecção de conteúdo gerado por IA

É difícil dizer se um texto foi escrito por um ser humano ou gerado por IA? O SynthID Text tem tudo o que você precisa. Essa tecnologia permite que você insira marcas d'água e detecte textos gerados por produtos de GenAI.

Como funciona: o SynthID insere marcas d'água e identifica conteúdo gerado por IA incorporando marcas d'água digitais diretamente no texto gerado por IA.

Código aberto para desenvolvedores: o SynthID para texto é acessível a todos os desenvolvedores por meio da Hugging Face e do Kit de ferramentas de GenAI responsável.


Saiba mais:

  • Aprofunde-se nos detalhes técnicos completos no artigo da Nature.


Use hoje mesmo:

  • Uma implementação de referência também está disponível no GitHub e no PyPI, com um notebook do Colab para aprendizado interativo.

Convidamos a comunidade de código aberto a nos ajudar a expandir o alcance do SynthID Text a todos os frameworks, com base nas implementações acima. Entre em contato no GitHub ou no Discord para tirar dúvidas.


Alinhamento de modelos: refine seus prompts com a assistência de LLMs

Elaborar prompts que apliquem efetivamente suas políticas de negócios é crucial para gerar saídas de alta qualidade.

A biblioteca Model Alignment ajuda a refinar prompts com a assistência de LLMs.

Forneça feedback sobre como você deseja que as saídas de seu modelo mudem como uma avaliação holística ou um conjunto de diretrizes.

Use o Gemini ou seu LLM preferido para transformar seu feedback em um prompt que alinhe o comportamento de seu modelo às necessidades e políticas de conteúdo de seu aplicativo.


Use hoje mesmo:

  • Experimente a demonstração interativa no Colab e veja como o Gemini pode ajudar a alinhar e melhorar os prompts para o Gemma.

  • Acesse a biblioteca no PyPI.

Depuração de prompts: simplifique a implantação da LIT no Google Cloud

A depuração de prompts é essencial para o desenvolvimento da IA responsável. Estamos tornando isso mais fácil e rápido com uma experiência de implantação aprimorada para a Learning Interpretability Tool (LIT) no Google Cloud.

  • Entrega de modelos eficiente e versátil: use o novo contêiner de servidor de modelos da LIT para implantar qualquer LLM da Hugging Face ou do Keras com suporte a geração, tokenização e pontuação de relevância em GPUs do Cloud Run.

  • Conectividade expandida a partir do app da LIT: conecte-se facilmente a modelos auto-hospedados ou Gemini por meio da API Vertex (somente geração).

Learning Interpretability Tool (LIT) on Google Cloud.

Seu feedback é muito importante!

Participe da conversa no Discord da comunidade de desenvolvedores do Google e compartilhe sua opinião sobre essas novas adições. Queremos muito saber o que você pensa para continuarmos construindo, juntos, o futuro da IA responsável.