コース概要

政府におけるAI特有のリスクの理解

  • AIリスクが従来のITおよびデータリスクと異なる点
  • 技術的、運用的、評判的、および倫理的なAIリスクのカテゴリー
  • 政府における公的説明責任とリスク認識

AIリスク管理フレームワーク

  • NIST AIリスク管理フレームワーク(AI RMF)
  • ISO/IEC 42001:2023 — AIマネジメントシステム規格
  • その他の業界固有および国際的なガイドライン(例:OECD、UNESCO)

AIシステムへのセキュリティ脅威

  • 対抗入力、データポイズニング、モデル逆変換
  • 機密トレーニングデータの漏洩
  • サプライチェーンとサードパーティモデルリスク

ガバナンス、監査、およびコントロール

  • ヒューマンインザループと説明責任メカニズム
  • 監査可能なAI:文書化、バージョン管理、解釈可能性
  • 内部コントロール、監視役割、およびコンプライアンスチェックポイント

リスク評価と軽減計画の策定

  • AIユースケース向けリスクレジスタの構築
  • 調達、法務、サービス設計チームとの協力
  • 配署前および配署後の評価の実施

インシデント対応と公共セクターのレジリエンス

  • AI関連インシデントや侵害への対応
  • ステークホルダーおよび公衆とのコミュニケーション
  • サイバーセキュリティプレイブックにAIリスク実践を組み込む

まとめと次なるステップ

要求

  • 政府機関におけるIT運用、リスク管理、サイバーセキュリティ、またはコンプライアンスの経験
  • 組織のセキュリティ実践とデジタルサービス提供に関する知識
  • AIシステムの技術的専門知識は不要

対象者

  • デジタルサービスとシステム統合に関与する政府ITチーム
  • 公共機関のサイバーセキュリティとリスク専門家
  • 公共セクターの監査、コンプライアンス、およびガバナンス担当者
 7 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (1)

今後のコース

関連カテゴリー