コース概要

AIの脅威モデリング入門

  • なぜAIシステムは脆弱なのか?
  • AI攻撃面と伝統的なシステムとの違い
  • 主要な攻撃ベクトル:データ、モデル、出力、およびインターフェース層

AIモデルに対する敵対的攻撃

  • 敵対的サンプルと摂動技術の理解
  • ホワイトボックス vs ブラックボックス攻撃
  • FGSM、PGD、DeepFoolメソッド
  • 敵対的サンプルの可視化と作成

モデル逆転とプライバシー漏洩

  • モデル出力から訓練データの推測
  • メンバーシップ推論攻撃
  • 分類モデルと生成モデルにおけるプライバシーリスク

データポイズニングとバックドア注入

  • 汚染されたデータがモデルの挙動に与える影響
  • トリガー型バックドアとトロイアン攻撃
  • 検出とクリーニング戦略

堅牢性と防御手法

  • 敵対的訓練とデータ拡張
  • グラディエントマスキングと入力前処理
  • モデル平滑化と正則化手法

プライバシー保護型AI防御

  • 差分プライバシーの紹介
  • ノイズ注入とプライバシーバジェット
  • 分散学習と安全な集約

実践的なAIセキュリティ

  • 脅威認識型モデル評価と展開
  • ART (Adversarial Robustness Toolbox)を適用設定で使用する。
  • 産業事例研究:実際の侵害と緩和策

まとめと今後のステップ

要求

  • 機械学習ワークフローとモデル訓練の理解
  • PythonおよびPyTorchやTensorFlowなどの一般的な機械学習フレームワークの使用経験
  • 基本的なセキュリティまたは脅威モデリングの概念に関する知識があると役立つ

対象者

  • 機械学習エンジニア
  • サイバーセキュリティアナリスト
  • AI研究者とモデル検証チーム
 14 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (1)

今後のコース

関連カテゴリー