contact

お問い合わせ

ブログ | 2023年08月30日

組織におけるAIガバナンスの確保

AIガバナンスの確保
Table of Contents

AI(人工知能)が急速に進化し続ける中、AIテクノロジーを利用している組織は、安全性、セキュリティ、ガバナンスを何よりも重視しなければなりません。AIガバナンスの軽視は、データ漏洩、不正行為、プライバシー法の不遵守といったリスクを引き起こします。

AIを活用する組織は、プロセス全体を通して透明性、コンプライアンス、標準化を確保することが求められます。AIガバナンスを確保するにはどうすればよいでしょうか?

人工知能とは

AIには人の知能を模倣する多様な用途があります。AIは、データ分析とパターン認識による学習と適応により、事前定義された規則とアルゴリズムを用いてタスクを実行できます。

自動化の一分野であるインテリジェントオートメーション(IA)は、ロボティックプロセスオートメーション(RPA)業務プロセス管理(BPM)、プロセスインテリジェンス、ノーコード開発、自然言語処理(NLP)など、他のいくつかのコグニティブテクノロジーによってAIの能力を拡張して業務プロセスを自動化し、業務の進め方を大きく変えるものです。将来的な人材戦略として、自動化のアプローチを採用している組織が増えています。RPAとAIの活用により、効率化、コスト削減、規制コンプライアンスを実現できます。

生成AIとは

生成AIは、画像、動画、スクリプトなど、学習データを基にまったく新しいコンテンツを生成します。セキュリティや規制に関してはまだ発展途上ですが、市場における生成AIの存在感が強まっています。生成AIのユースケースは多岐にわたりますが、導入に当たってはベストプラクティスを念頭に置く必要があります。

AIに備える方法については、SS&C Blue Prismが用意している総合ガイドをご覧ください。 

AIガバナンスとは

人工知能ガバナンスとは、組織によるAI活動の管理監視の取り組みを指します。その取り組みの一環として、AIモデルの文書化やパイプラインの監査により、AIの学習・テストの方法やライフサイクルを通した動作の仕方を明らかにする必要があります。さらに、適切なAIガバナンスを確保するには、潜在的なリスクについて概要をまとめ、本番環境への投入前に評価と検証を行う必要があります。

AIガバナンスの確保は、銀行・金融サービス保険医療など、民間・公共部門において厳格な規制下にある業界で特に重要となります。また、どの組織も、監査適合性の適切な文書化、機能の拡張、罰則の回避のため、AIモデルの透明性を確保する必要があります。

AIガバナンスの手法

AIガバナンスでは、AIテクノロジーの安全で効果的な開発と展開を実現するための戦略の策定に焦点を当てます。例えば、次のような戦略が挙げられます。

  • 透明性:AIによる意思決定の方法についてユーザーと利害関係者に周知するため、すべてのAIシステムを文書化して透明性を確保します。特に、金融リスク要素の十分な考慮が求められる銀行など、複合的な業界や厳格な規制下にある業界では、結果を明確に文書化することが重要となります。
  • アルゴリズム規制監査モデルには、正確性や潜在的なバイアスを確認するためのデータテストの根拠に対する評価を含める必要があります。
  • 倫理的なフレームワーク:AIシステムの実行方法に関する倫理ガイドラインを取り入れることで、責任のある行動を促進し、社内や政府の規制の遵守を確保することができます。求められる倫理的な行動規則としては、インフォームドコンセント、プライバシーの保護、バイアスの軽減、責任のあるコンテンツ作成、定期的な監査の実施、利害関係者との連携などがあります。倫理への取り組みにより、組織のブランドアイデンティティの強化と信頼性の向上を実現できます。
  • 法的なフレームワークAIに関する政府の適用規制の必須要件を把握します。それを自社のガバナンスモデルに反映する方法を確立します。適用される規制上の義務は、米国連邦政府などの中央政府が定めている場合もあります。
  • 監査適合性:AIシステムを定期的に監査することにより、リスク、バイアス、倫理上の懸念事項を特定して、公共政策の変化に機敏に対応できるようになります。
  • データセキュリティ:堅牢なデータガバナンスを全社規模で備えることにより、倫理的な手段で入手した正確なデータを用いたAIモデルの学習環境を確保できます。また、LLM(大規模言語モデル)を選択するときも、この取り組みが必要となる場合があります。LLMは、パブリックドメインで運用されたり、多様な基盤となるデータソースに依存する可能性があることに注意してください。
  • 予測:希望するAIシステムの活用方法についてビジネス上の結果と評価を明確にすることで、起こりうる問題を事前に発見し、モデルを軌道に乗せ、ビジネス機能を妨げずに改善を実現できます。

AIにおけるガバナンスの問題

AIガバナンスを取り入れない場合、様々なリスクを引き起こします。

データ品質

機械学習(ML)には優良なデータが必要です。データ品質が不十分な場合、そのようなデータに基づくプロセスや意思決定により、不十分な結果や不正確な結果が出力されることになります。安全で拡張しやすいAIプログラムの実現には、優良な学習データと管理が不可欠です。

ドキュメント

明確な文書化を行うことにより、AIモデルの構築方法や機能について規制当局に示すことができます。文書化を行わない場合、モデルの追跡、拡張、再現が困難になります。

外部リスク

ガバナンスが不十分な場合、敵対的攻撃、データ侵害、プライバシー保護の欠如、侵害行為といった著しいリスクを引き起こすことにもなります。それにより、組織の評判が脅かされます。テクノロジーのメリットだけでなく、危険な側面も把握することが重要です。

注意が必要な外部リスクには次のようなものがあります。

  • AI顔認識における人種プロファイリングなど。そのほか、性別、年齢、文化などによってもバイアスが生じる可能性があり、差別的な出力が生じる場合があります。
  • 著作物を基にしたAI学習による知的財産の侵害。
  • 政府の法的要件の違反による罰則や罰金。

AIモデルガバナンス

AIモデルガバナンスとは、組織によるアクセス制御、ポリシーの策定・導入、AIモデルのパフォーマンスの監視の実行方法に関するプロセスを指します。これにより、AIシステムにおける説明責任と透明性を確保できます。

AIモデルのガバナンスは、AIテクノロジーに対する信頼の確立と維持において極めて重要なものです。AIモデルが責任のある方法で開発されるようにします。それにより、潜在的な損害を防止し、様々な分野へのAIの貢献を最大化します。

組織がAIガバナンスを確立するための戦略的アプローチがいくつかあります。

  1. 開発ガイドライン:AIモデルを開発するための監督体制とベストプラクティスを確立します。利用可能なデータソース、学習方法、特徴量エンジニアリング、モデル評価手法を定義します。理論上のガバナンスから着手して、予測、潜在的なリスクとメリット、ユースケースに基づいて独自のガイドラインを定めます。
  2. データ管理:AIモデルの学習や微調整に使用するデータの正確性を確保するとともに、プライバシーや規制上の要件に準拠していることを確認します。
  3. バイアスの軽減:AIモデルのバイアスを特定して対処する方法を導入して、人口層にかかわらず、公正で公平な結果が出力されるようにします。
  4. 透明性:医療、金融、法制といった厳格な規制下にある重要な業界では、AIモデルによる意思決定についての説明が必要です。
  5. モデルの検証とテスト:AIモデルの徹底した検証とテストにより、想定どおりに動作し、所定の品質ベンチマークを満たしていることを確認します。
  6. モニタリング:採用したAIモデルのパフォーマンス指標を継続的に監視して、ニーズや安全規制の変化に応じて更新します。生成AIが登場して間もないことを考慮すると、ヒューマン・イン・ザ・ループのアプローチを維持して、人の監督下でAIの品質と動作結果を検証することが重要です。
  7. バージョン管理:各バージョンのAIモデルを関連する学習データ、構成、パフォーマンス指標とともに追跡して、必要に応じて再現や拡張を行えるようにします。
  8. リスクマネジメント:サイバーセキュリティ攻撃やデータ侵害などのセキュリティリスクからAIモデルを保護するためのセキュリティ対策を導入します。
  9. 記録:データソース、テスト、学習、ハイパーパラメーター、評価指標など、AIモデルのライフサイクル全体を詳細に記録します。
  10. ガバナンス審議会:AIモデルの開発・展開、ビジネス目標に沿った所定のガイドラインの遵守について監督を行うガバナンス審議会・委員会を結成します。経営陣からAIを扱う従業員まで、全レベルの従業員を関与させることにより、多様なすべての意見を確保することが重要です。
  11. 定期監査:監査を実施して、AIモデルのパフォーマンス、アルゴリズム規制コンプライアンス、倫理遵守を評価します。
  12. ユーザーからのフィードバック:ユーザーと利害関係者からAIモデルの動作に関するフィードバックを受ける仕組みを設け、モデルのエラーや悪影響が発生した際の説明責任対策を確立します。
  13. 継続的な改善:AIモデルの展開から得た教訓をガバナンスプロセスに取り入れて、開発・展開業務を継続的に改善します。

上記のすべてを考慮した上で、ベストプラクティスを確保するためにAIモデルが準拠すべき特定のガバナンスのフレームワークや一連の規則を検討することが有用かもしれません。

AIガバナンスのベストプラクティス

AIモデルの倫理やセキュリティに関する明確なガイドラインを定めたら、次のことが必要になります。

  1. チームへの周知。企業全体の全レベルの従業員に向けて、プライバシーやコンプライアンスに関する規則など、AIに関するガイドラインを周知します。説明責任と監督のメカニズムを活用して、従業員が負う各種の役割と責任を定め、抜けがないようにします。目指すビジネス成果を全員が把握し、チームとプロジェクトがその目標に沿うようにします。
  2. ユースケースの特定。システムでAIを使用したい場所と方法のほか、ビジネスにもたらすメリットを明確にします。潜在的なリスクと問題を特定します。
  3. 人とのつながりの維持。ガバナンス構造内で包括的な学習と教育を実施します。これは、人の労働力とデジタルワーカーにも当てはまります。すべてが円滑に進むよう、明確な記録と監督を維持してください。
  4. 適応。市場、規制、顧客の期待、進化するテクノロジーが変化すると、AIの追求に影響を与えます。従業員や顧客から定期的にフィードバックを収集し、AIによる出力の品質、秘密保持、効率を監視します。

AIガバナンスの責任者

当然ながら、AIガバナンスについては企業の全員が責任を負います。一貫性があり、まとまりのある一連のガイドラインを定めることにより、規制コンプライアンス、セキュリティ、組織の価値観の遵守を確保します。ただし、最終的には、AI担当の経営陣がAIガバナンスを主導することになります。

AIの規制担当者

AIガバナンスモデルを策定・維持する方法はいくつかあります。

  • トップダウン:効果的なガバナンスを実現するには、データの品質、セキュリティ、管理の改善に対する幹部職員の支持が必要です。経営陣がAIガバナンスと責任の割り当てについて説明責任を負い、監査委員会がデータ制御を監督する必要があります。また、ガバナンスとデータ品質を確保できる、テクノロジーの専門知識を備えた人物を最高データ責任者に任命することもできます。
  • ボトムアップ:データのセキュリティ、モデリング、標準化を実現するためのタスクについて、個々のチームに責任を負わせることができます。それにより、規模の拡張・縮小が可能になります。
  • モデリング:効果的なガバナンスモデルを実現するには、継続的なモニタリングと更新を通じて、パフォーマンスが組織全体の目標を満たすようにする必要があります。ガバナンスモデルへのアクセス権を付与するに当たっては、セキュリティを最優先する必要があります。
  • 透明性:AIパフォーマンスを追跡することも重要です。それにより、利害関係者や顧客に対する透明性を確保できます。また、AIパフォーマンスの追跡はリスク管理に欠かせません。AIパフォーマンスの追跡には、企業全体の人物を関与させることができます(また、関与させることが必要です)。

AIガバナンスに関する要点

進化を続ける人工知能を扱う場合、周到に計画されたガバナンス戦略が不可欠です。機械学習テクノロジーの活用に関する法的要件を組織全体に周知します。安全規制とガバナンスポリシー体制を定めて、データの安全性、正確性、コンプライアンスを維持します。