AIシステムにおけるサイバーセキュリティのトレーニングコース
AIシステムのセキュリティ確保は、従来のサイバーセキュリティ手法とは異なる固有の課題をもたらします。AIシステムは、敵対的攻撃、データ汚染、モデル窃取といった脅威に脆弱であり、これらは事業運営やデータの完全性に重大な影響を及ぼす可能性があります。本コースでは、AIシステム向けの主要なサイバーセキュリティ実践について解説します。具体的には、敵対的機械学習、機械学習パイプラインにおけるデータセキュリティ、そして堅牢なAI展開のためのコンプライアンス要件を網羅します。
本インストラクターによるライブトレーニング(オンラインまたはオンサイト)は、AIモデルおよびシステムに特有のセキュリティ脆弱性を理解し、対応することを目的とした中級レベルのAIおよびサイバーセキュリティ専門家向けに設計されています。特に、金融、データガバナンス、コンサルティングなど、規制が厳しい業界で活躍する方を対象としています。
本トレーニング修了時には、参加者は以下のことができるようになります:
- AIシステムを標的とした敵対的攻撃の種類と、それらに対する防御手法を理解する。
- 機械学習パイプラインを保護するためのモデル強化手法を実装する。
- 機械学習モデルにおけるデータのセキュリティと完全性を確保する。
- AIセキュリティに関連する規制コンプライアンス要件を適切に扱う。
コース形式
- 対話型の講義とディスカッション。
- 豊富な演習と実践。
- ライブラボ環境でのハンズオン実習。
コースのカスタマイズオプション
- 本コースのカスタマイズされたトレーニングをご希望の場合は、お気軽にお問合せください。
コース概要
AIセキュリティの課題への導入
- AIシステムに特有のセキュリティリスクの理解
- 従来のサイバーセキュリティとAIサイバーセキュリティの比較
- AIモデルにおける攻撃面の概要
敵対的機械学習
- 敵対的攻撃の種類:回避、汚染、抽出
- 敵対的防御と対策の実装
- 異なる業界における敵対的攻撃の事例研究
モデル強化手法
- モデルの堅牢性と強化の概要
- 攻撃に対するモデルの脆弱性を低減する手法
- 防御的蒸留およびその他の強化手法のハンズオン実習
機械学習におけるデータセキュリティ
- 学習および推論のためのデータパイプラインの保護
- データ漏洩およびモデル反転攻撃の防止
- AIシステムにおける機密データの管理に関するベストプラクティス
AIセキュリティのコンプライアンスおよび規制要件
- AIおよびデータセキュリティに関する規制の理解
- GDPR、CCPA、その他のデータ保護法へのコンプライアンス
- 安全かつコンプライアンスに準拠したAIモデルの開発
AIシステムセキュリティの監視と維持
- AIシステム向けの継続的監視の実装
- 機械学習におけるセキュリティのためのログ記録と監査
- AIセキュリティインシデントおよび侵害への対応
AIサイバーセキュリティの将来のトレンド
- AIおよび機械学習のセキュリティに関する Emerging 手法
- AIサイバーセキュリティにおける革新の機会
- 将来のAIセキュリティ課題への備え
まとめと次のステップ
要求
- 機械学習およびAIの概念に関する基礎知識
- サイバーセキュリティの原則と実践への親しみ
対象者
- AIシステムにおけるセキュリティ向上を目指すAIおよび機械学習エンジニア
- AIモデルの保護に注力するサイバーセキュリティ専門家
- データガバナンスおよびセキュリティにおけるコンプライアンスとリスク管理の専門家
オープントレーニングコースには5人以上が必要です。
AIシステムにおけるサイバーセキュリティのトレーニングコース - 予約
AIシステムにおけるサイバーセキュリティのトレーニングコース - お問い合わせ
AIシステムにおけるサイバーセキュリティ - コンサルティングお問い合わせ
お客様の声 (1)
彼が私たちの前で専門的な知識をどのように提示したか
Miroslav Nachev - PUBLIC COURSE
コース - Cybersecurity in AI Systems
機械翻訳
今後のコース
関連コース
ISACA Advanced in AI Security Management (AAISM)
21 時間AAISMは、人工知能システムにおけるセキュリティリスクの評価、統治、および管理を高度に行うためのフレームワークです。
このインストラクター主導の実践的なトレーニング(オンラインまたは対面)は、エンタープライズAI環境で効果的なセキュリティ制御と統治慣行を実装することを目指す高度なレベルの専門家向けです。
このプログラムを修了すると、参加者は以下のことができるようになります:
- 業界で認められた方法論を使用してAIのセキュリティリスクを評価します。
- 責任あるAI展開のための統治モデルを実装します。
- AIのセキュリティポリシーを組織の目標と規制要件に合わせます。
- AI駆動型運用におけるレジリエンスと説明責任を強化します。
コースの形式
- 専門家による分析を支援する講義。
- 実践的なワークショップと評価に基づく活動。
- 現実世界のAI統治シナリオを使用した応用練習。
コースのカスタマイズオプション
- ご組織のAI戦略に合わせたトレーニングを提供するため、カスタマイズについてお問い合わせください。
AIガバナンス、準拠、およびセキュリティ - エンタープライズリーダー向け
14 時間この講師主導のライブトレーニング(オンラインまたはオンサイト)は、中級レベルのエンタープライズリーダー向けに設計されており、AIシステムを責任を持って管理し、EU AI Act、GDPR、ISO/IEC 42001、および米国のAIに関する大統領令などの新興グローバルフレームワークに準拠する方法を理解することを目指しています。
このトレーニングの終了時には、参加者は以下のことをできるようになります:
- 部門間でのAIを使用する際の法的、倫理的、規制上のリスクを理解します。
- 主要なAIガバナンスフレームワーク(EU AI Act、NIST AI RMF、ISO/IEC 42001)の解釈と適用を行います。
- エンタープライズでのAI導入に向けたセキュリティ、監査、および監督ポリシーを確立します。
- 第三者および社内AIシステムの調達と使用ガイドラインを開発します。
AIリスク管理と公共セクターにおけるサイバーセキュリティ
7 時間AI(人工知能)は政府機関や部門の運用手順、ガバナンス課題、およびサイバーセキュリティへの露出に新たな次元をもたらします。
この講師主導型の実践トレーニング(オンラインまたはオンサイト)は、AIに関する経験が限られている公共セクターのITやリスク専門家を対象としており、政府や規制機関におけるAIシステムの評価、監視、および保護方法を理解することを目指しています。
このトレーニング終了時には、参加者は以下のことができることになります:
- AIシステムに関連する主なリスク概念(バイアス、予測不可能性、モデルの変動など)を解釈します。
- NIST AI RMFやISO/IEC 42001などのAI特有のガバナンスと監査フレームワークを適用します。
- AIモデルとデータパイプラインを標的とするサイバーセキュリティ脅威を認識します。
- 部門横断的なリスク管理計画とAI展開の政策整合性を確立します。
コースの形式
- 公共セクターのユースケースに関する対話型講義とディスカッション。
- AIガバナンスフレームワークの演習と政策マッピング。
- シナリオに基づく脅威モデリングとリスク評価。
コースカスタマイゼーションオプション
- このコースのカスタマイズトレーニングを希望する場合は、お問い合わせください。
AI信頼性、リスク、およびセキュリティ管理(AI TRiSM)入門
21 時間このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、初心者から中級レベルのIT専門家を対象としており、組織でのAI TRiSMの理解と実装を目指しています。
このトレーニング終了後、参加者は以下のことをできるようになります:
- AI信頼性、リスク管理、およびセキュリティ管理の主要な概念と重要性を理解する。
- AIシステムに関連するリスクを特定し、軽減する。
- AIのセキュリティベストプラクティスを実装する。
- AIの規制コンプライアンスと倫理的配慮を理解する。
- 効果的なAIガバナンスと管理のための戦略を開発する。
セキュアで責任あるLLMアプリケーションの構築
14 時間このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、中級レベルから上級レベルのAI開発者、アーキテクト、およびプロダクトマネージャを対象としており、プロンプト注入、データ漏洩、フィルタリングされていない出力などのLLM駆動アプリケーションに関連するリスクを特定し、緩和することを目指しています。入力検証、ヒューマンインザループの監視、出力ガードレールなどのセキュリティ制御を取り入れることも含まれます。
このトレーニング終了時には、参加者は以下のことができるようになります:
- LLMベースシステムの主要な脆弱性を理解する。
- LLMアプリケーションのアーキテクチャにセキュアな設計原則を適用する。
- Guardrails AIやLangChainなどのツールを使用して検証、フィルタリング、安全性を確保する。
- サンドボックス化、レッドチームテスト、ヒューマンインザループレビューなどの技術を本番グレードのパイプラインに統合する。
EXOのセキュリティとガバナンス:オフラインモデル管理
14 時間このインストラクター主導のライブトレーニングは、日本(オンラインまたは対面)で提供され、EXOデプロイメントの堅牢化、モデルアクセスの制御、オンプレミス上で完全に実行されるAIワークロードのガバナンスを目指したいセキュリティエンジニアやコンプライアンス担当者を対象としています。
AI セキュリティとリスク管理の入門
14 時間この講師主導のライブトレーニング(オンラインまたはオンサイト)は、基礎的な AI セキュリティ概念、脅威ベクトル、および NIST AI RMF および ISO/IEC 42001 のような世界規模のフレームワークを理解したい初心者レベルの IT セキュリティ、リスク、コンプライアンス専門家向けです。
このトレーニングが終了すると、参加者は以下のことが Able to になります:
- AI システムによって導入される一意のセキュリティリスクを理解する。
- 対立的攻撃、データポイズニング、モデル逆変換などの脅威ベクトルを特定する。
- NIST AI リスク管理フレームワークのような基礎的な統治モデルを適用する。
- 新しい規格、コンプライアンスガイドライン、および倫理原則に AI の使用を合わせる。
OWASP GenAI セキュリティ
14 時間最新の OWASP GenAI セキュリティプロジェクトのガイダンスに基づいて、参加者は手動演習と現実世界のシナリオを通じて AI 特有の脅威を識別、評価、軽減する方法を学びます。
プライバシー保護型機械学習
14 時間この講師主導のライブトレーニング(オンラインまたは対面)では、連携学習、安全なマルチパーティ計算、準同型暗号化、差分プライバシーなどの実際の機械学習パイプラインでの技術を実装および評価したい上級レベルの専門家向けです。
本トレーニング終了時には、参加者は以下のことができるようにします:
- MLにおける主要なプライバシー保護技術を理解し比較する。
- オープンソースフレームワークを使用して連携学習システムを実装する。
- 差分プライバシーを使用してデータ共有とモデル訓練を安全に行う。
- 暗号化および安全な計算技術を使用して、モデルの入出力を保護する。
AIシステムのレッドチーム: 機械学習モデルの攻撃的なセキュリティ
14 時間このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、高度なレベルのセキュリティ専門家と機械学習スペシャリストを対象としており、AIシステムへの攻撃を模擬し、脆弱性を見つけ出し、展開されたAIモデルの堅牢性を向上させることを目指しています。
本トレーニング終了時には、参加者は以下のことができるようになります:
- 機械学習モデルに対する実世界の脅威を模擬する。
- モデルの堅牢性をテストするために対抗例を生成する。
- AI APIとパイプラインの攻撃面を評価する。
- AI展開環境向けのレッドチーム戦略を設計する。
エッジAIと組み込み知能の保護
14 時間このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、中級レベルのエンジニアとセキュリティ専門家向けで、エッジに展開されたAIモデルを改ざん、データ漏洩、対抗サンプル、物理的攻撃などの脅威から保護することを目指しています。
このトレーニングの終了時には、参加者は以下のことをできるようになります:
- エッジAI展開におけるセキュリティリスクを特定し評価します。
- 改ざん防止と暗号化推論の技術を適用します。
- エッジ展開モデルを強化し、データパイプラインを保護します。
- 埋め込みおよび制約のあるシステムに特有の脅威軽減戦略を実装します。
AIモデルの保護:脅威、攻撃、および防御
14 時間このインストラクター主導のライブトレーニング(オンラインまたは対面)は、中級レベルの機械学習とサイバーセキュリティ専門家向けに設計されています。このコースでは、AIモデルに対する新興脅威を理解し、緩和する方法について、概念的なフレームワークと堅牢な訓練や差分プライバシーなどの実践的な防御手法を用いて学びます。
このトレーニングの終了時には、参加者は以下のことができるようになります:
- 敵対的攻撃、逆転、ポイズニングなどのAI固有の脅威を識別し分類する。
- Adversarial Robustness Toolbox (ART)のようなツールを使用して攻撃をシミュレーションし、モデルをテストする。
- 敵対的訓練、ノイズ注入、プライバシー保護技術などの実践的な防御手法を適用する。
- 生産環境での脅威認識型モデル評価戦略を設計する。
TinyML アプリケーションのセキュリティとプライバシー
21 時間TinyML は、低電力でリソースに制約のあるデバイスに機械学習モデルを展開する手法です。これらのデバイスはネットワークエッジで動作します。
このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、高度なレベルの専門家向けに設計されており、TinyML パイプラインを保護し、エッジ AI アプリケーションでプライバシー保護技術を実装することを目指しています。
このコースが終了すると、参加者は以下の能力を持つことができます:
- デバイス上の TinyML 推論に特有のセキュリティリスクを識別します。
- エッジ AI 配置におけるプライバシー保護メカニズムを実装します。
- TinyML モデルと組み込みシステムを対抗的な脅威から強化します。
- 制約のある環境での安全なデータ処理のベストプラクティスを適用します。
コース形式
- 専門家主導の議論でサポートされた魅力的な講義。
- 実際の脅威シナリオを重視した実践的な演習。
- 嵌め込みセキュリティと TinyML ツールを使用した手動実装。
コースのカスタマイズオプション
- 組織は、特定のセキュリティとコンプライアンス要件に合わせたトレーニングのカスタマイズ版を依頼することができます。
安全で信頼性のあるエージェンシックAI:ガバナンス、アイデンティティ管理、レッドチームテスト
21 時間このコースでは、エージェンシックAIシステムのガバナンス、アイデンティティ管理、対抗テストについて学びます。特にエンタープライズ向けの安全な展開パターンと実践的なレッドチーム技術に焦点を当てています。
このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、高度なスキルを持つ実務者を対象としており、生産環境でのエージェントベースAIシステムの設計、セキュリティ、評価について学ぶことができます。
このトレーニング終了時には、参加者は以下ができます:
- エージェンシックAIの安全な展開に適したガバナンスモデルとポリシーを定義します。
- 最小特権アクセスを持つエージェント用の非人間アイデンティティおよび認証フローを設計します。
- 自動化されたエージェントに適したアクセス制御、監査トレール、可観測性を実装します。
- ミス使用、権限昇格パス、データ漏洩リスクの発見のためにレッドチーム演習を計画し実行します。
- 政策、エンジニアリング制御、監視を通じてエージェンシックシステムに対する一般的な脅威を軽減します。
コース形式
- インタラクティブな講義と脅威モデルワークショップ。
- 実践的なラボ:アイデンティティのプロビジョニング、ポリシーの適用、対抗者シミュレーション。
- レッドチーム/ブルーチーム演習とコース終了時の評価。
コースカスタマイゼーションオプション
- このコースのカスタムトレーニングをご希望の場合、ご連絡ください。