借助新工具发展 Responsible Generative AI Toolkit,使其支持所有 LLM

十月 23, 2024
Ryan Mullins Research Engineer and RAI Toolkit Tech Lead

以负责任的方式构建 AI 至关重要。为此,我们创建了 Responsible Generative AI Toolkit,为设计、构建和评估开放式 AI 模型提供资源。并且我们不会止步于此!我们正在通过开发专为与任何 LLM(无论是 Gemma、Gemini 或其他任何模型)兼容而设计的新工具,不断扩展工具包。无论用户选择哪种模型,这套工具和一系列功能都可助力他们以负责任的方式构建 AI。


以下是新功能:

SynthID Text:为 AI 生成的内容添加水印并对其进行检测

是否难以判断文本是由人类编写还是由 AI 生成?SynthID Text 可帮您解决这一难题。您能借助该技术对 GenAI 产品生成的文本添加水印并进行检测

工作原理:SynthID 直接将数字水印嵌入 AI 生成的文本中,从而为 AI 生成的内容添加水印并对其进行识别。

面向开发者的开放源代码:所有开发者都可以通过 Hugging Face 和 Responsible Generative AI Toolkit 访问用于文本内容的 SynthID。


了解详情:


立即使用:

基于上述实现,我们邀请开源社区帮助我们跨框架扩展 SynthID Text 的覆盖范围。如有疑问,请通过 GitHubDiscord 联系我们。


Model Alignment:在 LLM 的协助下优化您的提示

设计可助力有效执行业务政策的提示对于生成高质量输出至关重要。

Model Alignment 库可帮助您在 LLM 的支持下优化提示

针对您希望模型的输出如何改变提供反馈,并将其作为全面评估或者一系列指南。

使用 Gemini 或您首选的 LLM,将您的反馈转化为提示,从而使模型的行为与应用需求和内容政策保持一致。


立即使用:

  • Colab 中尝试交互式演示,了解 Gemini 如何帮助调整并改进针对 Gemma 的提示。

  • PyPI 上访问库。

Prompt Debugging:简化 Google Cloud 上的 LIT 部署

调试提示对于 Responsible AI 开发至关重要。我们通过改善 Google Cloud 上 Learning Interpretability Tool (LIT) 的部署体验,使调试提示变得更轻松快捷。

  • 高效通用的模型服务:利用 LIT 的新模型服务器容器部署任何 Hugging Face 或 Keras LLM,同时支持在 Cloud Run GPU 上实现生成、令牌化和显著性评分。

  • 已从 LIT 应用扩展的连接:通过 Vertex API(仅生成)无缝连接到自托管模型或 Gemini。

Learning Interpretability Tool (LIT) on Google Cloud.

期待您的反馈!

请加入 Google 开发者社区 Discord 的对话,并分享您对这些新内容的看法。我们非常期待您的反馈,并希望继续与您共同构建基于 Responsible AI 的未来。