コース概要

AI とセキュリティの基礎

  • セキュリティの観点から、AI システムが他と異なる理由
  • AI のライフサイクルの概要:データ、トレーニング、推論、およびデプロイメント
  • 技術的、倫理的、法的、組織的な AI リスクの基本的な分類

AI 特有の脅威ベクトル

  • 対立的事例とモデル操作
  • モデル逆変換とデータ漏洩リスク
  • トレーニングフェーズでのデータポイズニング
  • 生成型 AI(例:LLM の誤用、プロンプト注入)のリスク

セキュリティリスク管理フレームワーク

  • NIST AI リスク管理フレームワーク (NIST AI RMF)
  • ISO/IEC 42001 およびその他の AI 特有の規格
  • 現存する企業 GRC フレームワークへの AI リスクのマッピング

AI ガバナンスとコンプライアンス原則

  • AI の説明責任と監査可能性
  • 透明性、説明可能性、およびフェアネスのセキュリティに関連する特性
  • バイアス、差別、および下流の影響

企業の準備状況と AI セキュリティポリシー

  • AI セキュリティプログラムにおける役割と責任の定義
  • ポリシー要素:開発、調達、使用、および廃棄
  • 第三者リスクとサプライヤー AI ツールの使用

規制環境と世界的なトレンド

  • EU AI 法と国際規制の概要
  • 安全で信頼性の高い AI に関する米国の大統領令
  • 新しい国家フレームワークと業界固有のガイドライン

オプションのワークショップ:リスクマッピングと自己評価

  • 現実世界の AI 使用事例を NIST AI RMF の機能にマッピングする。
  • 基本的な AI リスク自己評価を行う。
  • 内部の AI セキュリティ準備度のギャップを特定する。

まとめと次のステップ

要求

  • 基本的なサイバーセキュリティ原則に関する理解
  • IT ガバナンスまたはリスク管理フレームワークの経験
  • 一般的な AI コンセプトについての知識は役立ちますが、必須ではありません

対象者(Audience)

  • IT セキュリティチーム
  • リスク管理者
  • コンプライアンス専門家
 14 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (1)

今後のコース

関連カテゴリー