以负责任的方式构建 AI 至关重要。为此,我们创建了 Responsible Generative AI Toolkit,为设计、构建和评估开放式 AI 模型提供资源。并且我们不会止步于此!我们正在通过开发专为与任何 LLM(无论是 Gemma、Gemini 或其他任何模型)兼容而设计的新工具,不断扩展工具包。无论用户选择哪种模型,这套工具和一系列功能都可助力他们以负责任的方式构建 AI。
是否难以判断文本是由人类编写还是由 AI 生成?SynthID Text 可帮您解决这一难题。您能借助该技术对 GenAI 产品生成的文本添加水印并进行检测。
工作原理:SynthID 直接将数字水印嵌入 AI 生成的文本中,从而为 AI 生成的内容添加水印并对其进行识别。
面向开发者的开放源代码:所有开发者都可以通过 Hugging Face 和 Responsible Generative AI Toolkit 访问用于文本内容的 SynthID。
基于上述实现,我们邀请开源社区帮助我们跨框架扩展 SynthID Text 的覆盖范围。如有疑问,请通过 GitHub 或 Discord 联系我们。
设计可助力有效执行业务政策的提示对于生成高质量输出至关重要。
Model Alignment 库可帮助您在 LLM 的支持下优化提示。
针对您希望模型的输出如何改变提供反馈,并将其作为全面评估或者一系列指南。
使用 Gemini 或您首选的 LLM,将您的反馈转化为提示,从而使模型的行为与应用需求和内容政策保持一致。
调试提示对于 Responsible AI 开发至关重要。我们通过改善 Google Cloud 上 Learning Interpretability Tool (LIT) 的部署体验,使调试提示变得更轻松快捷。
请加入 Google 开发者社区 Discord 的对话,并分享您对这些新内容的看法。我们非常期待您的反馈,并希望继续与您共同构建基于 Responsible AI 的未来。