コース概要

AIセキュリティ統治の基礎

  • AI統治の核心原則
  • 企業のAI向けセキュリティフレームワーク
  • ステークホルダーの役割と責任

AIリスク評価方法論

  • AIセキュリティリスクの特定と分類
  • AI機能システムの脅威モデリング
  • 影響評価と優先順位付け

セキュアなAIシステム設計

  • 機密性、整合性、可用性を考慮した設計
  • AIパイプラインでのセキュリティ制御の実装
  • モデルライフサイクル管理に関する考慮事項

AIデータ保護とプライバシー

  • 機械学習のためのデータ統治
  • 感度の高い規制データの管理
  • プライバシー強化技術

AI運用の監視とセキュリティ

  • AIの動作の継続的な評価
  • ドリフト、異常、および悪用の検出
  • AIシステム向けの運用脅威インテリジェンス

規制とコンプライアンスの整合性

  • AIセキュリティに影響する世界的な基準
  • ドキュメンテーションと監査準備
  • 統治を法的義務に合わせる

AIシステムのインシデント対応

  • AI固有の攻撃ベクトルと指標
  • 破損したモデルのためのレスポンスワークフロー
  • 事後レビューと是正措置

戦略的なAIセキュリティ管理

  • 長期的なAIセキュリティ能力の構築
  • 企業戦略にAIリスクを統合する
  • 成熟度評価と継続的改善

まとめと次なるステップ

要求

  • サイバーセキュリティリスクの原則に関する理解
  • AIまたはデータ駆動型システムの経験
  • 企業セキュリティ統治の知識

対象者

  • AIイニシアチブを監督するセキュリティ管理者
  • 統治とリスクの専門家
  • セキュアなAI採用に責任を持つ技術的リーダー
 21 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (1)

今後のコース

関連カテゴリー