Impulsamos la evolución del Kit de herramientas de IA generativa responsable con funciones nuevas para cada LLM

OCT 23, 2024
Ryan Mullins Research Engineer and RAI Toolkit Tech Lead

Desarrollar la IA de manera responsable es fundamental. Es por eso que creamos el Kit de herramientas para la IA generativa responsable, que proporciona recursos para diseñar, desarrollar y evaluar modelos de IA abiertos. Además, lo estamos ampliando con nuevas funciones diseñadas para funcionar con cualquier LLM, como Gemma, Gemini, etc. Este conjunto de herramientas y funciones permite a todos desarrollar IA de manera responsable, independientemente del modelo que elijan.


Estas son las novedades:

SynthID Text: marca de agua y detección de contenido generado por IA

¿Es difícil saber si un texto fue escrito por un ser humano o generado por IA? SynthID Text puede ayudarte. Esta tecnología te permite marcar y detectar el texto generado por tu producto de GenAI.

Cómo funciona: SynthID identifica el contenido generado por IA insertando marcas de agua digitales directamente en el texto generado por IA.

Código abierto para desarrolladores: SynthID para texto es accesible para todos los desarrolladores a través de Hugging Face y el Kit de herramientas para la IA generativa responsable.


Obtén más información:

  • Explora todos los detalles técnicos en el artículo de Nature.


Úsala hoy mismo:

Invitamos a la comunidad de código abierto a ayudarnos a expandir el alcance de SynthID Text en diversos marcos de trabajo, con base en las implementaciones ya mencionadas. Comunícate en GitHub o Discord si tienes preguntas.


Alineación de modelos: define mejor tus indicaciones con ayuda de LLM

Elaborar indicaciones que hagan cumplir eficazmente las políticas de tu empresa es fundamental para generar resultados de alta calidad.

La biblioteca de alineación de modelos te ayudará a definir mejor tus indicaciones con ayuda del LLM.

Envíanos tus comentarios sobre los cambios que te gustaría ver en los resultados de tu modelo, ya sea como opinión general o como pautas.

Usa Gemini o tu LLM preferido para transformar tus comentarios en una indicación que alinee el comportamiento de tu modelo con las necesidades y políticas de contenido de tu aplicación.


Úsala hoy mismo:

  • Experimenta con la demostración interactiva en Colab y mira cómo Gemini puede ayudarte a alinear y mejorar las indicaciones para Gemma.

  • Acceda a la biblioteca en PyPI.

Depuración de indicaciones: agiliza la implementación de LIT en Google Cloud

La depuración de indicaciones es fundamental para el desarrollo de la IA responsable. Lo estamos haciendo más fácil y rápido con una experiencia de implementación mejorada para la herramienta de interpretación de aprendizaje (LIT) en Google Cloud.

  • Servicio de modelos eficientes y versátiles: aprovecha el nuevo contenedor de servidores de modelos de LIT para implementar cualquier LLM de Hugging Face o Keras con compatibilidad con la generación, tokenización y puntuación de prominencia en GPUs de Cloud Run.

  • Conectividad ampliada desde la aplicación LIT: conéctate sin problemas a modelos autoalojados o Gemini a través de la API de Vertex (solo generación).

Learning Interpretability Tool (LIT) on Google Cloud.

¡Tus comentarios son importantes para nosotros!

Únete a la conversación en la comunidad de Discord de Google Developers y comparte tu opinión sobre estas nuevas incorporaciones. Nos interesa saber lo que piensas y continuar construyendo un futuro de IA responsable juntos.