更小、更安全、更透明:Gemma 促进负责任的 AI

七月 31, 2024
Neel Nanda Research Engineer
Tom Lieberum Research Engineer
Ludovic Peran Product Manager
Kathleen Kenealy Research Engineer

我们在 6 月发布了全新的一流开放模型 Gemma 2,该模型拥有 270 亿 (27B) 参数和 90 亿 (9B) 参数两个版本。自首次亮相以来,27B 模型迅速成为 LMSYS 聊天机器人竞技排行榜上排名最高的开放模型之一,在实际对话中的表现甚至超越了规模为其两倍以上的热门模型。

但 Gemma 不仅关注性能,该模型还建立在负责任的 AI 基础之上,优先考虑安全性和无障碍性。为了支持这一承诺,我们隆重推出 Gemma 2 系列的三个新模型:

  1. Gemma 2 2B:热门的 20 亿 (2B) 参数模型的全新版本,具有内置的安全改进,并在高性能和高效率之间实现了平衡。

2. ShieldGemma:基于 Gemma 2 构建的安全内容分类器模型套件,用于过滤 AI 模型的输入和输出,确保用户安全。

3. Gemma Scope:全新的模型可解释性工具,能够以前所未有的深度揭示模型内部是如何运行的。

通过这些新增模型,研究人员和开发者现在可以创建更安全的客户体验,以前所未有的深度分析模型,同时自信地在设备上负责任地部署强大 AI,开启创新的无限可能。


Gemma 2 2B:体验新一代性能,现已上线设备端

我们很高兴推出 Gemma 2 2B 模型,这是 Gemma 2 系列备受期待的新成员。这款轻量级模型通过蒸馏向更大的模型学习,从而产生了超出预期的效果。事实上,Gemma 2 2B 在聊天机器人竞技场上超越了所有 GPT-3.5 模型,展示了其卓越的对话式 AI 能力。

Graph - LYMSYS Chatbot Arena leaderboard scores
LMSYS 聊天机器人竞技场排行榜上的分数记录于 2024 年 7 月 30 日。 Gemma 2 2B 的得分 +/- 10。

Gemma 2 2B 具备以下特点:

  • 卓越性能:在其规模内提供同类最佳的性能,表现超越同类别中的其他开放模型。

  • 部署灵活且经济高效:Gemma 2 2B 可以在各种硬件上高效运行,从边缘设备和笔记本电脑到使用 Vertex AI 和 Google Kubernetes Engine (GKE) 的强大云部署。为了进一步提升速度,该模型采用 NVIDIA TensorRT-LLM 库进行优化,并作为 NVIDIA NIM 提供。这种优化针对各种部署环境,包括数据中心、云、本地工作站、PC 和边缘设备。该模型使用 NVIDIA RTXNVIDIA GeForce RTX GPU 或 NVIDIA Jetson 模块进行边缘 AI 处理。此外,Gemma 2 2B 还与 Keras、JAX、Hugging Face、NVIDIA NeMo、Ollama、Gemma.cpp 以及即将推出的 MediaPipe 无缝集成,以简化开发流程。

从今天开始,您可以在 KaggleHugging FaceVertex AI Model Garden 中下载 Gemma 2 的模型权重。您也可以在 Google AI Studio 中尝试其功能。


ShieldGemma:使用最前沿的安全分类器保护用户

在确保 AI 输出既吸引人、又安全且具有包容性的情况下,负责任地部署开放模型需要开发者和研究人员投入大量精力。为了帮助开发者完成这一过程,我们推出了 ShieldGemma。ShieldGemma 包含一系列最前沿的安全分类器,旨在检测和减轻 AI 模型输入和输出中的有害内容。ShieldGemma 特别针对以下四个关键的危害领域:

  • 仇恨言论

  • 骚扰

  • 露骨色情内容

  • 危险内容

Generative AI application model architecture

这些开放式分类器是对 Responsible AI Toolkit 中现有安全分类器套件的补充,其中包括为特定策略量身定制的分类器构建方法,这种方法即使在数据点数量有限的情况下也能实现;以及通过 API 提供的现有 Google Cloud 现成分类器。


ShieldGemma 具备以下特点,以帮助您创建更安全、更出色的 AI 应用:

  • 最前沿的性能:基于 Gemma 2 构建,ShieldGemma 是业界领先的安全分类器。

  • 灵活的规模:ShieldGemma 提供多种模型规模以满足不同的需求。2B 模型非常适合在线分类任务,而 9B 和 27B 版本则为延迟问题不那么重要的离线应用提供更高的性能。所有规模的模型均可利用 NVIDIA 的速度优化技术,实现跨硬件的高效性能。

  • 开放和协作:ShieldGemma 的开放性推动了 AI 社区的透明度和协作,为 ML 行业的未来安全标准做出了贡献。


“随着 AI 的不断发展成熟,整个行业都需要投资于高性能安全评估器的研发。我们很高兴看到 Google 在这方面进行了投资,并期待他们继续参与我们的 AI 安全工作组。”~ ML Commons 执行董事 Rebecca Weiss
Evaluation results based on Optimal F1(left)/AU-PRC(right), higher is better.
评价结果基于最优 F1 值(左)/AU-PRC(右),数值越高越好。 我们使用 𝛼=0 和 T = 1 来计算概率。ShieldGemma (SG) Prompt 和 SG Response 是我们的测试数据集,而 OpenAI Mod/ToxicChat 是外部基准。基线模型在外部数据集上的性能来源于 Ghosh 等人的研究(2024 年);Inan 等人的研究(2023 年)。

如需详细了解 ShieldGemma,请查看技术报告中的完整结果,并开始使用我们全面的 Responsible Generative AI Toolkit 来构建更安全的 AI 应用。


Gemma Scope:使用开放式稀疏自动编码器来揭示 AI 决策过程

Gemma Scope 为研究人员和开发者提供了前所未有的透明度,让他们能够深入了解 Gemma 2 模型的决策过程。就像一台强大的显微镜一样,Gemma Scope 使用稀疏自动编码器 (SAE) 来放大模型内的特定点,从而使模型的内部运作变得更加容易理解。

此类 SAE 是专门的神经网络,可用于将 Gemma 2 处理的密集且复杂的信息解码并扩展成更容易分析和理解的形式。通过研究这些扩展的视图,研究人员可以获得宝贵的见解,了解 Gemma 2 如何识别模式、处理信息并最终做出预测。借助 Gemma Scope,我们的目标是帮助 AI 研究社区探索如何构建更易于理解、负责任和可靠的 AI 系统。

Gemma Scope 具有以下突破性特点:

  • 交互式演示:Neuronpedia 上无需编写代码即可探索 SAE 功能并分析模型行为。

  • 易于使用的存储库:提供与 SAE 和 Gemma 2 交互的代码和示例

如需详细了解 Gemma Scope,请访问 Google DeepMind 博客、技术报告开发者文档


基于负责任的 AI 铸就未来

上述新版本体现了我们一贯的承诺,即为 AI 社区提供所需的工具和资源,以构建一个 AI 惠及所有人的未来。我们坚信开放访问、透明度和合作对于开发安全有益的 AI 至关重要。


立即体验:

  • Neuronpedia 上试用 Gemma Scope,了解 Gemma 2 的内部运作机制。

加入我们,共同踏上这段激动人心的旅程,向着更加负责任和更有益的 AI 未来迈进!