お問い合わせを送信いただきありがとうございます!当社のスタッフがすぐにご連絡いたします。
予約を送信いただきありがとうございます!当社のスタッフがすぐにご連絡いたします。
コース概要
AI とセキュリティの基礎
- セキュリティの観点から、AI システムが他と異なる理由
- AI のライフサイクルの概要:データ、トレーニング、推論、およびデプロイメント
- 技術的、倫理的、法的、組織的な AI リスクの基本的な分類
AI 特有の脅威ベクトル
- 対立的事例とモデル操作
- モデル逆変換とデータ漏洩リスク
- トレーニングフェーズでのデータポイズニング
- 生成型 AI(例:LLM の誤用、プロンプト注入)のリスク
セキュリティリスク管理フレームワーク
- NIST AI リスク管理フレームワーク (NIST AI RMF)
- ISO/IEC 42001 およびその他の AI 特有の規格
- 現存する企業 GRC フレームワークへの AI リスクのマッピング
AI ガバナンスとコンプライアンス原則
- AI の説明責任と監査可能性
- 透明性、説明可能性、およびフェアネスのセキュリティに関連する特性
- バイアス、差別、および下流の影響
企業の準備状況と AI セキュリティポリシー
- AI セキュリティプログラムにおける役割と責任の定義
- ポリシー要素:開発、調達、使用、および廃棄
- 第三者リスクとサプライヤー AI ツールの使用
規制環境と世界的なトレンド
- EU AI 法と国際規制の概要
- 安全で信頼性の高い AI に関する米国の大統領令
- 新しい国家フレームワークと業界固有のガイドライン
オプションのワークショップ:リスクマッピングと自己評価
- 現実世界の AI 使用事例を NIST AI RMF の機能にマッピングする。
- 基本的な AI リスク自己評価を行う。
- 内部の AI セキュリティ準備度のギャップを特定する。
まとめと次のステップ
要求
- 基本的なサイバーセキュリティ原則に関する理解
- IT ガバナンスまたはリスク管理フレームワークの経験
- 一般的な AI コンセプトについての知識は役立ちますが、必須ではありません
対象者(Audience)
- IT セキュリティチーム
- リスク管理者
- コンプライアンス専門家
14 時間
お客様の声 (1)
彼が私たちの前で専門的な知識をどのように提示したか
Miroslav Nachev - PUBLIC COURSE
コース - Cybersecurity in AI Systems
機械翻訳