AI 安全与合规引导:首席技术官指南

十二月 20, 2023
Fergus Hurley Co-Founder & GM Checks
Pedro Rodriguez Head of Engineering Checks

生成人工智能 (GenAI) 的快速发展为许多行业带来了变革性机遇。然而,这些进步也引发了对隐私、滥用、偏见和不公平等方面风险的担忧。因此,我们必须负责任地开发和部署这项技术。

AI 应用程序变得越来越复杂,而开发人员正在将其集成到关键系统中。因此,技术领导者有责任确保他们安全、合乎道德地使用 AI,并遵守相关政策、法规和法律。其中,首席技术官与工程及 AI 负责人尤其责任重大,因为他们负责领导 AI 在其产品和堆栈中的广泛应用。

虽然全面的 AI 安全法规尚在萌芽,但首席技术官不能等到法规有所要求才采取行动。相反,他们必须采取前瞻性的 AI 治理方略,将安全性和合规性考量纳入整个产品开发周期。

本文是探索这些挑战的系列文章中的第一篇。首先,本文提出了将 AI 安全和合规实践整合到产品开发生命周期中的四个关键建议:

1. 建立稳健的 AI 治理框架

制定全面的 AI 治理框架,明确定义组织开发、部署和操作 AI 系统的原则、政策和程序。该框架应建立明确的角色、责任、问责机制和风险评估协议。

新兴框架的例子包括美国国家标准和技术研究所的 AI 风险管理框架 (AI Risk Management Framework)AI 权利法案的 OSTP 蓝图 (OSTP Blueprint for an AI Bill of Rights)欧盟 AI 法案 (EU AI Act) 以及 Google 的安全 AI 框架 (SAIF)

随着您的组织采用 AI 治理框架,考虑依赖第三方基础模型的影响至关重要。这些考虑因素包括基础模型使用的应用程序数据以及根据基础模型提供商的服务条款承担的义务。

2. 在设计阶段嵌入 AI 安全原则

AI 安全原则(例如 Google 的负责任的 AI 原则)应从一开始就被纳入设计流程。

AI 安全原则涉及在开发周期的早期识别和减轻潜在风险和挑战。例如,减轻训练或模型推断中的偏见,并确保模型行为的可解释性。使用对抗性训练(用寻求不安全输出的提示对 LLM 进行红队测试)等技术,能帮助确保 AI 模型以公平、公正和稳健的方式运行。

3. 实施持续监控与审核

通过持续监控和审核实时跟踪 AI 系统的性能和行为。目标是识别并解决潜在的安全问题或异常,避免其升级为更大的问题。

应关注模型准确性、公平性和可解释性等关键指标,并为您的应用程序及其监控设立基线。除传统指标外,还可使用 Vertex AI 模型监控等工具查找用户行为的意外变化和 AI 模型偏移。要做到这一点,需要使用数据日志记录、异常检测和人机协同机制,以确保实现持续监督。

4. 培养透明和可解释的文化

以透明和可解释的文化推动 AI 决策。通过定义清晰的文档指南、指标和角色来鼓励这种文化,以便开发 AI 系统的所有团队成员都能参与设计、训练、部署和运营。

此外,应向跨职能的利益相关方提供清晰易懂的说明,解释 AI 系统如何运作、有哪些局限性以及其决策背后可知的理由。这些信息能促进用户、监管机构和利益相关方之间的信任。

结语

随着 AI 在核心和关键系统中的作用日益增加,无论是 AI 本身还是使用 AI 的系统和组织,其成功都离不开规范治理。本文中的四个提议为朝这个方向迈进提供了良好开端。

不过,这是一个广泛而复杂的领域。在之后的系列文章中,我们还会深入探讨将 AI 安全地整合到您的开发与应用程式中所需的工具、技术和流程,敬请关注。