生成型人工知能(GenAI)の急速な進歩は、多くの業界に変革の機会をもたらしています。しかし、こうした進歩によって、プライバシー、悪用、偏見、不公平といったリスクが懸念されているため、責任ある開発と展開が不可欠になっています。
AI アプリケーションはますます高度になり、デベロッパーは AI を重要なシステムに組み込むようになっています。そのため、テクノロジー リーダー、特に CTO やエンジニアリングおよび AI の責任者(プロダクトやスタック全体で AI の採用に関して主導的な役割を果たす人)には、AI を安全かつ倫理的に、そして関連するポリシーや規制、法律に準拠して使用することを保証する責任があります。
AI の安全性に関する包括的な規制はまだ始まったばかりですが、CTO は規制の義務化を待ってから行動するわけにはいきません。むしろ、AI ガバナンスに将来を見越したアプローチを採用し、プロダクト開発サイクル全体で安全性とコンプライアンスを考慮しなければなりません。
この記事は、そういった課題について検討するシリーズの第 1 回です。今回は、プロダクト開発ライフサイクルに AI の安全性とコンプライアンスを導入するうえで、重要になる提案を 4 つ紹介します。
包括的な AI ガバナンス フレームワーク、すなわち AI システムの開発、展開、オペレーションに関する組織の原則、ポリシー、手順を明確に定義したものを策定します。このフレームワークで、役割、責任、説明責任のメカニズム、リスク評価プロトコルを明確に取り決める必要があります。
新たなフレームワークの例として、米国国立標準技術研究所の AI リスク管理フレームワーク、米国大統領府科学技術政策局による AI 権利章典の青写真、EU AI 法、Google の Secure AI Framework(SAIF)などがあげられます。
組織が AI ガバナンス フレームワークを採用する際には、サードパーティの基盤モデルを利用する場合の影響を考慮することが不可欠です。すなわち、基盤モデルが使用するアプリのデータや、基盤モデル プロバイダの利用規約に基づく義務などについて考慮する必要があります。
Google の責任ある AI への取り組み原則などの AI 安全原則を、最初から設計プロセスに組み込みます。
AI 安全原則には、開発サイクルの早い段階で潜在的なリスクと課題を特定し、軽減することが含まれます。たとえば、トレーニングやモデルの推論におけるバイアスを軽減したり、モデルの動作を説明できるようにしたりすることなどです。敵対的トレーニング(LLM のレッドチーム テストで、プロンプトを使って危険なアウトプットを探す)などのテクニックを使い、AI モデルが公正で偏りなく確実に動作するようにします。
継続的なモニタリングと監査を行い、AI システムのパフォーマンスと動作をリアルタイムで追跡します。ここでの目標は、潜在的な安全性の問題や異常が大きな問題に発展する前に、特定して対処することです。
モデルの精度、公平性、説明可能性などの主要な指標を探し、アプリとそのモニタリングの基準を取り決めます。従来の指標だけでなく、Vertex AI Model Monitoring などのツールを活用し、予期しないユーザーの行動変化や AI モデルのドリフトを探すようにします。これは、データロギング、異常検出、および人間参加型の仕組みを活用して、継続的かつ確実なモニタリングを行うことで実現します。
透明性と説明可能性を維持する文化を通じて、AI 関連の意思決定を推進します。明確な文書化ガイドライン、指標、役割を定義し、AI システムを開発するすべてのチームメンバーが設計、トレーニング、展開、オペレーションに参加できるようにすることで、この文化を奨励します。
また、部門を超えた関係者に対して、AI システムの動作の仕組み、限界、判断の根拠として提示できる内容について、明確にわかりやすく説明できるようにします。この情報によって、ユーザー、規制当局、関係者の間で信頼関係が育まれます。
中核システムや基幹システムにおける AI の役割は拡大しています。それとともに、AI やそれを使うシステムや組織が成功を収めるには、適切なガバナンスが不可欠になっています。本記事の 4 つの提案は、その方向へ向かう適切なスタート地点となるはずです。
しかし、これは広く複雑な領域であり、それがこのシリーズのテーマでもあります。開発プロセスや作成するアプリに AI を安全に組み込むために必要なツール、テクニック、プロセスについて、今後も詳しく説明していきますので、お楽しみに。