プライバシー保護型機械学習のトレーニングコース
プライバシー保護型機械学習は、分散環境や制限された環境で高度なAI機能を有効にしながら、機密データを保護するための分野です。
この講師主導のライブトレーニング(オンラインまたは対面)では、連携学習、安全なマルチパーティ計算、準同型暗号化、差分プライバシーなどの実際の機械学習パイプラインでの技術を実装および評価したい上級レベルの専門家向けです。
本トレーニング終了時には、参加者は以下のことができるようにします:
- MLにおける主要なプライバシー保護技術を理解し比較する。
- オープンソースフレームワークを使用して連携学習システムを実装する。
- 差分プライバシーを使用してデータ共有とモデル訓練を安全に行う。
- 暗号化および安全な計算技術を使用して、モデルの入出力を保護する。
コースの形式
- 双方向の講義とディスカッション。
- たくさんの演習と練習。
- ライブラボ環境での実践的な実装。
コースのカスタマイズオプション
- このコースのカスタマイズトレーニングを希望される場合は、お問い合わせください。
コース概要
プライバシー保護型MLの紹介
- 機密データ環境での動機とリスク
- プライバシー保護型ML技術の概要
- セキュリティモデルと規制上の考慮事項(例:GDPR, HIPAA)
連携学習
- 連携学習の概念とアーキテクチャ
- クライアント-サーバー同期と集約
- PySyftとFlowerを使用した実装
差分プライバシー
- 差分プライバシーの数学
- データクエリとモデル訓練におけるDPの適用
- OpacusとTensorFlow Privacyの使用
安全なマルチパーティ計算(SMPC)
- SMPCプロトコルとユースケース
- 暗号化ベースの方法と秘密共有方式
- CrypTenやPySyftを使用した安全な計算ワークフロー
準同型暗号化
- 完全準同型暗号化と部分準同型暗号化
- 機密ワークロードの暗号化推論
- TenSEALとMicrosoft SEALを使用した実践
アプリケーションと業界事例
- 医療におけるプライバシー:医療AIの連携学習
- 金融での安全な協力:リスクモデルとコンプライアンス
- 防衛および政府機関でのユースケース
まとめと次のステップ
要求
- 機械学習の原理の理解
- PythonとMLライブラリ(例えば、PyTorch, TensorFlow)の経験
- データプライバシーまたはサイバーセキュリティの概念に精通していることが望ましい
対象者
- AI研究者
- データ保護とプライバシーコンプライアンスチーム
- 規制産業で働くセキュリティエンジニア
オープントレーニングコースには5人以上が必要です。
プライバシー保護型機械学習のトレーニングコース - 予約
プライバシー保護型機械学習のトレーニングコース - お問い合わせ
プライバシー保護型機械学習 - コンサルティングお問い合わせ
コンサルティングお問い合わせ
今後のコース
関連コース
ISACA Advanced in AI Security Management (AAISM)
21 時間AAISM is an advanced framework for assessing, governing, and managing security risks in artificial intelligence systems.
This instructor-led, live training (online or onsite) is aimed at advanced-level professionals who wish to implement effective security controls and governance practices for enterprise AI environments.
At the conclusion of this program, participants will be prepared to:
- Evaluate AI security risks using industry-recognized methodologies.
- Implement governance models for responsible AI deployment.
- Align AI security policies with organizational goals and regulatory expectations.
- Enhance resilience and accountability within AI-driven operations.
Format of the Course
- Facilitated lectures supported by expert analysis.
- Practical workshops and assessment-based activities.
- Applied exercises using real-world AI governance scenarios.
Course Customization Options
- For tailored training aligned to your organizational AI strategy, please contact us to customize the course.
AI Governance, Compliance, and Security for Enterprise Leaders
14 時間This instructor-led, live training in 日本 (online or onsite) is aimed at intermediate-level enterprise leaders who wish to understand how to govern and secure AI systems responsibly and in compliance with emerging global frameworks such as the EU AI Act, GDPR, ISO/IEC 42001, and the U.S. Executive Order on AI.
By the end of this training, participants will be able to:
- Understand the legal, ethical, and regulatory risks of using AI across departments.
- Interpret and apply major AI governance frameworks (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Establish security, auditing, and oversight policies for AI deployment in the enterprise.
- Develop procurement and usage guidelines for third-party and in-house AI systems.
AI Risk Management and Security in the Public Sector
7 時間Artificial Intelligence (AI) introduces new dimensions of operational risk, governance challenges, and cybersecurity exposure for government agencies and departments.
This instructor-led, live training (online or onsite) is aimed at public sector IT and risk professionals with limited prior experience in AI who wish to understand how to evaluate, monitor, and secure AI systems within a government or regulatory context.
By the end of this training, participants will be able to:
- Interpret key risk concepts related to AI systems, including bias, unpredictability, and model drift.
- Apply AI-specific governance and auditing frameworks such as NIST AI RMF and ISO/IEC 42001.
- Recognize cybersecurity threats targeting AI models and data pipelines.
- Establish cross-departmental risk management plans and policy alignment for AI deployment.
Format of the Course
- Interactive lecture and discussion of public sector use cases.
- AI governance framework exercises and policy mapping.
- Scenario-based threat modeling and risk evaluation.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Introduction to AI Trust, Risk, and Security Management (AI TRiSM)
21 時間This instructor-led, live training in 日本 (online or onsite) is aimed at beginner-level to intermediate-level IT professionals who wish to understand and implement AI TRiSM in their organizations.
By the end of this training, participants will be able to:
- Grasp the key concepts and importance of AI trust, risk, and security management.
- Identify and mitigate risks associated with AI systems.
- Implement security best practices for AI.
- Understand regulatory compliance and ethical considerations for AI.
- Develop strategies for effective AI governance and management.
Building Secure and Responsible LLM Applications
14 時間This instructor-led, live training in 日本 (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
- Understand the core vulnerabilities of LLM-based systems.
- Apply secure design principles to LLM app architecture.
- Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
- Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
Cybersecurity in AI Systems
14 時間This instructor-led, live training in 日本 (online or onsite) is aimed at intermediate-level AI and cybersecurity professionals who wish to understand and address the security vulnerabilities specific to AI models and systems, particularly in highly regulated industries such as finance, data governance, and consulting.
By the end of this training, participants will be able to:
- Understand the types of adversarial attacks targeting AI systems and methods to defend against them.
- Implement model hardening techniques to secure machine learning pipelines.
- Ensure data security and integrity in machine learning models.
- Navigate regulatory compliance requirements related to AI security.
Introduction to AI Security and Risk Management
14 時間This instructor-led, live training in 日本 (online or onsite) is aimed at beginner-level IT security, risk, and compliance professionals who wish to understand foundational AI security concepts, threat vectors, and global frameworks such as NIST AI RMF and ISO/IEC 42001.
By the end of this training, participants will be able to:
- Understand the unique security risks introduced by AI systems.
- Identify threat vectors such as adversarial attacks, data poisoning, and model inversion.
- Apply foundational governance models like the NIST AI Risk Management Framework.
- Align AI use with emerging standards, compliance guidelines, and ethical principles.
OWASP GenAI Security
14 時間Based on the latest OWASP GenAI Security Project guidance, participants will learn to identify, assess, and mitigate AI-specific threats through hands-on exercises and real-world scenarios.
AIシステムのレッドチーム: 機械学習モデルの攻撃的なセキュリティ
14 時間このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、高度なレベルのセキュリティ専門家と機械学習スペシャリストを対象としており、AIシステムへの攻撃を模擬し、脆弱性を見つけ出し、展開されたAIモデルの堅牢性を向上させることを目指しています。
本トレーニング終了時には、参加者は以下のことができるようになります:
- 機械学習モデルに対する実世界の脅威を模擬する。
- モデルの堅牢性をテストするために対抗例を生成する。
- AI APIとパイプラインの攻撃面を評価する。
- AI展開環境向けのレッドチーム戦略を設計する。
エッジAIと組み込み知能の保護
14 時間このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、中級レベルのエンジニアとセキュリティ専門家向けで、エッジに展開されたAIモデルを改ざん、データ漏洩、対抗サンプル、物理的攻撃などの脅威から保護することを目指しています。
このトレーニングの終了時には、参加者は以下のことをできるようになります:
- エッジAI展開におけるセキュリティリスクを特定し評価します。
- 改ざん防止と暗号化推論の技術を適用します。
- エッジ展開モデルを強化し、データパイプラインを保護します。
- 埋め込みおよび制約のあるシステムに特有の脅威軽減戦略を実装します。
AIモデルの保護:脅威、攻撃、および防御
14 時間このインストラクター主導のライブトレーニング(オンラインまたは対面)は、中級レベルの機械学習とサイバーセキュリティ専門家向けに設計されています。このコースでは、AIモデルに対する新興脅威を理解し、緩和する方法について、概念的なフレームワークと堅牢な訓練や差分プライバシーなどの実践的な防御手法を用いて学びます。
このトレーニングの終了時には、参加者は以下のことができるようになります:
- 敵対的攻撃、逆転、ポイズニングなどのAI固有の脅威を識別し分類する。
- Adversarial Robustness Toolbox (ART)のようなツールを使用して攻撃をシミュレーションし、モデルをテストする。
- 敵対的訓練、ノイズ注入、プライバシー保護技術などの実践的な防御手法を適用する。
- 生産環境での脅威認識型モデル評価戦略を設計する。
Security and Privacy in TinyML Applications
21 時間TinyML is an approach to deploying machine learning models on low-power, resource-constrained devices operating at the network edge.
This instructor-led, live training (online or onsite) is aimed at advanced-level professionals who wish to secure TinyML pipelines and implement privacy-preserving techniques in edge AI applications.
At the conclusion of this course, participants will be able to:
- Identify security risks unique to on-device TinyML inference.
- Implement privacy-preserving mechanisms for edge AI deployments.
- Harden TinyML models and embedded systems against adversarial threats.
- Apply best practices for secure data handling in constrained environments.
Format of the Course
- Engaging lectures supported by expert-led discussions.
- Practical exercises emphasizing real-world threat scenarios.
- Hands-on implementation using embedded security and TinyML tooling.
Course Customization Options
- Organizations may request a tailored version of this training to align with their specific security and compliance needs.
安全で信頼性のあるエージェンシックAI:ガバナンス、アイデンティティ管理、レッドチームテスト
21 時間このコースでは、エージェンシックAIシステムのガバナンス、アイデンティティ管理、対抗テストについて学びます。特にエンタープライズ向けの安全な展開パターンと実践的なレッドチーム技術に焦点を当てています。
このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、高度なスキルを持つ実務者を対象としており、生産環境でのエージェントベースAIシステムの設計、セキュリティ、評価について学ぶことができます。
このトレーニング終了時には、参加者は以下ができます:
- エージェンシックAIの安全な展開に適したガバナンスモデルとポリシーを定義します。
- 最小特権アクセスを持つエージェント用の非人間アイデンティティおよび認証フローを設計します。
- 自動化されたエージェントに適したアクセス制御、監査トレール、可観測性を実装します。
- ミス使用、権限昇格パス、データ漏洩リスクの発見のためにレッドチーム演習を計画し実行します。
- 政策、エンジニアリング制御、監視を通じてエージェンシックシステムに対する一般的な脅威を軽減します。
コース形式
- インタラクティブな講義と脅威モデルワークショップ。
- 実践的なラボ:アイデンティティのプロビジョニング、ポリシーの適用、対抗者シミュレーション。
- レッドチーム/ブルーチーム演習とコース終了時の評価。
コースカスタマイゼーションオプション
- このコースのカスタムトレーニングをご希望の場合、ご連絡ください。