AI ガバナンス

AIガバナンスが求められる背景
AIにおけるガバナンスとは一体何を意味するのでしょうか?IBMのサイトによると、AIガバナンスとは、AIツールおよびシステムが安全かつ倫理的であることを保証するガードレールであると述べられています。
AIが管理および監督されないまま開発・運用された場合、重大な社会的および倫理的に危険をもたらす可能性があります。世界では、過去に発生した事象から高度なAIに関するリスクを管理するためのガバナンス、つまり「AIガバナンス」の重要性が認識され、その中で提供されるガイドラインおよびフレームワークにより、技術の進歩と安全性のバランスを図り、AIが個人の権利を侵害しないようにするための仕組みや取り組みが求められています。
以前我々のブログでも紹介した「責任あるAI(Responsible AI)」は、AIガバナンスを構築するための方法論、原則であり、慣習(プラクティス)です。これは、マイクロソフトをはじめ多くの企業で、組織の運用にそれらをどう組み込むかが検討および実践されています。
OneTrust AI ガバナンスの特徴
AIがどこで利用されているかを把握
- AIやMLテクノロジーを活用するプロジェクト、モデル、データセットについて最新の情報をインベントリとして管理する必要があります。
- MLOpsツールと統合することでAIモデルを自動検出し、一元化されたインベントリと同期することが可能です。
- モデル、データセット、プロジェクト間の関係性を定義し、AIが活用されている取り組みを把握し、AIシステムに関する詳細な台帳を構築するとともに、それらに対してプライバシーリスク評価を実行します。
AI開発ライフサイクルの管理
- AIのユースケースを評価し、リスクを顕在化させ、AI開発プロジェクトの各フェーズにおいて管理します。
- プロジェクトのライフサイクルの初期段階で、AIプロジェクトのコンテキストを把握し、潜在的なリスクをあぶり出します。
- AIシステムの利用目的も含め、各AIイニシアチブと関連情報をトラッキングします。
リスクの軽減
- 企業側で規定した責任ある使用ポリシー、グローバルな法律、およびフレームワークに照らしてAIを評価します。
- 偏り、公平性、透明性のためにリスクレベルを自動的に割り当てます。
- リスクの高いプロジェクトを適切な組織(または人)やプロセスへエスカレーションします。
- ダッシュボードとレポートを使用して、モデルのリスクレベルを容易に特定し、リスクの高いAIプロジェクトの数を把握します。
機能の詳細
OneTrustのAIガバナンスを使用することで、企業は「責任あるAI」を実現するための仕組みをビジネスに組み込むことが可能です。
AIガバナンスのためのインベントリ管理
OneTrustでは3つのインベントリとベンダーを組み合わせることでAIガバナンスのための仕組みをデジタルの台帳へと構造化します。


プロジェクト

プロジェクトは、AIの取り組みを管理する単位です。プロジェクトを開始する前に、NIST AI RMFなどのあらかじめ定義済みの評価テンプレートを使用することで、すぐに評価を開始するとともに、プライバシー・バイ・デザインの実現をサポートします。
責任あるAIを実現するためにAIモデルを責任を持って管理し、公平性、正確性、説明可能性やセキュリティについて期待される基準を満たしていることをプロジェクト全体で保証します。
モデル

モデルについて責任のあるAIを実現するための仕組みを提供します。
モデルのバイアスや挙動を評価・管理し、サードパーティリスク管理を一緒に使用することで、モデルを提供する外部のソリューションベンダーを管理することも可能です。
データセット

AIモデルのトレーニングに使用される予定もしくはすでに使用されたデータセットをトラッキングすることは、透明性、説明責任、バイアスを特定することにより責任あるAIを実現するのに不可欠です。
データセットを確認することで、透明性や説明責任によってデータ品質や法令遵守に役立ちます。
また、データディスカバリを使用すれば、データを自動的に分類し、どういったカテゴリのデータがパイプラインを通じてデータセットにもたらされているかを把握することが可能です
例えば要配慮情報のような機微データ(民族的出自や人種など)が含まれると判定された場合、リスクを自動的に作成し、リスクを低減するためのコントロールと改善のトラッキングまで管理することが可能です。
AIガバナンスのためのリスク評価テンプレート
OneTrust AIガバナンスでは、AIシステムのリスク評価を行うためのテンプレートが複数(英語版の場合、9種類)用意されています。
EUのAI法などの主要なAI規制に合わせて、AIプロジェクトにおけるリスクの評価と管理をサポートする「AI Intake Assessment」(日本語翻訳あり)を使えば、ジェネレーティブAIシステムを含む多くのAIテクノロジーに適応可能です。また、EU AI法に対応したものやNIST AI RMF Playbookをもとに構築されたテンプレートも使用することができます。
さまざまな法律やフレームワークでAIの評価を実施し、リスクを自動的に検知することでリスクを特定するプロセスを標準化し、評価結果をレポート化して分析、理解、必要な措置を講じることにより、AIリスクの軽減に役立てることができます。
