コース概要

AIレッドチーム入門

  • AI脅威ランドスケープの理解
  • AIセキュリティにおけるレッドチームの役割
  • 倫理的および法的な考慮事項

対抗的な機械学習

  • 攻撃の種類:回避、汚染、抽出、推論
  • 対抗例の生成(FGSM、PGDなど)
  • ターゲット型と非ターゲット型攻撃および成功指標

モデル堅牢性のテスト

  • 異常値に対する堅牢性の評価
  • モデルの盲点と失敗モードの探索
  • クラス分類、ビジョン、NLPモデルのストレステスト

AIパイプラインのレッドチーム活動

  • AIパイプラインの攻撃面:データ、モデル、展開
  • セキュリティが不十分なモデルAPIとエンドポイントの悪用
  • モデル動作と出力の逆解析

シミュレーションとツール

  • 対抗的堅牢性ツールボックス(ART)の使用
  • TextAttackやIBM ARTなどのツールを使用したレッドチーム活動
  • サンドボックス、監視、オブザーバビリティツール

AIレッドチーム戦略と防御コラボレーション

  • レッドチーム演習と目標の開発
  • ブルーチームへの調査結果の伝え方
  • AIリスク管理におけるレッドチーム活動の統合

まとめと次なるステップ

要求

  • 機械学習と深層学習アーキテクチャの理解
  • Pythonと機械学習フレームワーク(TensorFlow、PyTorchなど)の経験
  • サイバーセキュリティ概念または攻撃的セキュリティ技術に関する知識

対象者

  • セキュリティ研究者
  • 攻撃的セキュリティチーム
  • AI保証とレッドチームのプロフェッショナル
 14 時間

参加者の人数


参加者1人当たりの料金

今後のコース

関連カテゴリー