エッジAIと組み込み知能の保護のトレーニングコース
エッジAIと組み込み知能の保護とは、ドローン、センサー、スマートカメラ、自律システムなど、制約があり物理的に露出した環境における機械学習モデルやデータを保護する実践的事項です。
このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、中級レベルのエンジニアとセキュリティ専門家向けで、エッジに展開されたAIモデルを改ざん、データ漏洩、対抗サンプル、物理的攻撃などの脅威から保護することを目指しています。
このトレーニングの終了時には、参加者は以下のことをできるようになります:
- エッジAI展開におけるセキュリティリスクを特定し評価します。
- 改ざん防止と暗号化推論の技術を適用します。
- エッジ展開モデルを強化し、データパイプラインを保護します。
- 埋め込みおよび制約のあるシステムに特有の脅威軽減戦略を実装します。
コース形式
- インタラクティブな講義とディスカッション。
- 多くの演習と実践。
- ライブラボ環境での手動実装。
コースカスタマイズオプション
- このコースのカスタマイズされたトレーニングをご希望の場合は、お問い合わせください。
コース概要
エッジAIと組み込みシステムの概要
- エッジAIとは?ユースケースと制約
- エッジハードウェアプラットフォームとソフトウェアスタック
- 埋め込みおよび分散環境におけるセキュリティ課題
エッジAIの脅威風景
- 物理的アクセスと改ざんリスク
- 対抗サンプルとモデル操作
- データ漏洩とモデル逆転の脅威
モデルの保護
- モデル強化と量子化戦略
- ウォーターマーキングとモデルの指紋化
- 防御的ディストリレーションとプルーニング
暗号化推論と安全な実行環境
- AIのための信頼された実行環境(TEEs)
- セキュアエンクレーブと機密性確保コンピューティング
- 同型暗号化やSMPCを使用した暗号化推論
改ざん検出とデバイスレベルの制御
- セキュアブートとファームウェアインテグリティチェック
- センサーバリデーションと異常検出
- リモート証明とデバイスヘルスモニタリング
エッジからクラウドのセキュリティ統合
- 安全なデータ送信とキー管理
- エンドツーエンド暗号化とデータライフサイクル保護
- エッジセキュリティ制約を持つクラウドAIオーケストレーション
ベストプラクティスとリスク軽減戦略
- エッジAIシステムの脅威モデリング
- 埋め込み知能のセキュリティ設計原則
- インシデント対応とファームウェア更新管理
まとめと次なるステップ
要求
- 埋め込みシステムやエッジAI展開環境に関する理解
- PythonとMLフレームワーク(TensorFlow Lite、PyTorch Mobileなど)の経験
- サイバーセキュリティやIoT脅威モデルに関する基本的な知識
対象者
- 埋め込みAI開発者
- IoTセキュリティスペシャリスト
- エッジや制約のあるデバイスにMLモデルを展開するエンジニア
オープントレーニングコースには5人以上が必要です。
エッジAIと組み込み知能の保護のトレーニングコース - 予約
エッジAIと組み込み知能の保護のトレーニングコース - お問い合わせ
エッジAIと組み込み知能の保護 - コンサルティングお問い合わせ
コンサルティングお問い合わせ
今後のコース
関連コース
ISACA Advanced in AI Security Management (AAISM)
21 時間AAISM is an advanced framework for assessing, governing, and managing security risks in artificial intelligence systems.
This instructor-led, live training (online or onsite) is aimed at advanced-level professionals who wish to implement effective security controls and governance practices for enterprise AI environments.
At the conclusion of this program, participants will be prepared to:
- Evaluate AI security risks using industry-recognized methodologies.
- Implement governance models for responsible AI deployment.
- Align AI security policies with organizational goals and regulatory expectations.
- Enhance resilience and accountability within AI-driven operations.
Format of the Course
- Facilitated lectures supported by expert analysis.
- Practical workshops and assessment-based activities.
- Applied exercises using real-world AI governance scenarios.
Course Customization Options
- For tailored training aligned to your organizational AI strategy, please contact us to customize the course.
AI Governance, Compliance, and Security for Enterprise Leaders
14 時間This instructor-led, live training in 日本 (online or onsite) is aimed at intermediate-level enterprise leaders who wish to understand how to govern and secure AI systems responsibly and in compliance with emerging global frameworks such as the EU AI Act, GDPR, ISO/IEC 42001, and the U.S. Executive Order on AI.
By the end of this training, participants will be able to:
- Understand the legal, ethical, and regulatory risks of using AI across departments.
- Interpret and apply major AI governance frameworks (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Establish security, auditing, and oversight policies for AI deployment in the enterprise.
- Develop procurement and usage guidelines for third-party and in-house AI systems.
AI Risk Management and Security in the Public Sector
7 時間Artificial Intelligence (AI) introduces new dimensions of operational risk, governance challenges, and cybersecurity exposure for government agencies and departments.
This instructor-led, live training (online or onsite) is aimed at public sector IT and risk professionals with limited prior experience in AI who wish to understand how to evaluate, monitor, and secure AI systems within a government or regulatory context.
By the end of this training, participants will be able to:
- Interpret key risk concepts related to AI systems, including bias, unpredictability, and model drift.
- Apply AI-specific governance and auditing frameworks such as NIST AI RMF and ISO/IEC 42001.
- Recognize cybersecurity threats targeting AI models and data pipelines.
- Establish cross-departmental risk management plans and policy alignment for AI deployment.
Format of the Course
- Interactive lecture and discussion of public sector use cases.
- AI governance framework exercises and policy mapping.
- Scenario-based threat modeling and risk evaluation.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Introduction to AI Trust, Risk, and Security Management (AI TRiSM)
21 時間This instructor-led, live training in 日本 (online or onsite) is aimed at beginner-level to intermediate-level IT professionals who wish to understand and implement AI TRiSM in their organizations.
By the end of this training, participants will be able to:
- Grasp the key concepts and importance of AI trust, risk, and security management.
- Identify and mitigate risks associated with AI systems.
- Implement security best practices for AI.
- Understand regulatory compliance and ethical considerations for AI.
- Develop strategies for effective AI governance and management.
Building Secure and Responsible LLM Applications
14 時間This instructor-led, live training in 日本 (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
- Understand the core vulnerabilities of LLM-based systems.
- Apply secure design principles to LLM app architecture.
- Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
- Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
Cybersecurity in AI Systems
14 時間This instructor-led, live training in 日本 (online or onsite) is aimed at intermediate-level AI and cybersecurity professionals who wish to understand and address the security vulnerabilities specific to AI models and systems, particularly in highly regulated industries such as finance, data governance, and consulting.
By the end of this training, participants will be able to:
- Understand the types of adversarial attacks targeting AI systems and methods to defend against them.
- Implement model hardening techniques to secure machine learning pipelines.
- Ensure data security and integrity in machine learning models.
- Navigate regulatory compliance requirements related to AI security.
Introduction to AI Security and Risk Management
14 時間This instructor-led, live training in 日本 (online or onsite) is aimed at beginner-level IT security, risk, and compliance professionals who wish to understand foundational AI security concepts, threat vectors, and global frameworks such as NIST AI RMF and ISO/IEC 42001.
By the end of this training, participants will be able to:
- Understand the unique security risks introduced by AI systems.
- Identify threat vectors such as adversarial attacks, data poisoning, and model inversion.
- Apply foundational governance models like the NIST AI Risk Management Framework.
- Align AI use with emerging standards, compliance guidelines, and ethical principles.
OWASP GenAI Security
14 時間Based on the latest OWASP GenAI Security Project guidance, participants will learn to identify, assess, and mitigate AI-specific threats through hands-on exercises and real-world scenarios.
プライバシー保護型機械学習
14 時間この講師主導のライブトレーニング(オンラインまたは対面)では、連携学習、安全なマルチパーティ計算、準同型暗号化、差分プライバシーなどの実際の機械学習パイプラインでの技術を実装および評価したい上級レベルの専門家向けです。
本トレーニング終了時には、参加者は以下のことができるようにします:
- MLにおける主要なプライバシー保護技術を理解し比較する。
- オープンソースフレームワークを使用して連携学習システムを実装する。
- 差分プライバシーを使用してデータ共有とモデル訓練を安全に行う。
- 暗号化および安全な計算技術を使用して、モデルの入出力を保護する。
AIシステムのレッドチーム: 機械学習モデルの攻撃的なセキュリティ
14 時間このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、高度なレベルのセキュリティ専門家と機械学習スペシャリストを対象としており、AIシステムへの攻撃を模擬し、脆弱性を見つけ出し、展開されたAIモデルの堅牢性を向上させることを目指しています。
本トレーニング終了時には、参加者は以下のことができるようになります:
- 機械学習モデルに対する実世界の脅威を模擬する。
- モデルの堅牢性をテストするために対抗例を生成する。
- AI APIとパイプラインの攻撃面を評価する。
- AI展開環境向けのレッドチーム戦略を設計する。
AIモデルの保護:脅威、攻撃、および防御
14 時間このインストラクター主導のライブトレーニング(オンラインまたは対面)は、中級レベルの機械学習とサイバーセキュリティ専門家向けに設計されています。このコースでは、AIモデルに対する新興脅威を理解し、緩和する方法について、概念的なフレームワークと堅牢な訓練や差分プライバシーなどの実践的な防御手法を用いて学びます。
このトレーニングの終了時には、参加者は以下のことができるようになります:
- 敵対的攻撃、逆転、ポイズニングなどのAI固有の脅威を識別し分類する。
- Adversarial Robustness Toolbox (ART)のようなツールを使用して攻撃をシミュレーションし、モデルをテストする。
- 敵対的訓練、ノイズ注入、プライバシー保護技術などの実践的な防御手法を適用する。
- 生産環境での脅威認識型モデル評価戦略を設計する。
Security and Privacy in TinyML Applications
21 時間TinyML is an approach to deploying machine learning models on low-power, resource-constrained devices operating at the network edge.
This instructor-led, live training (online or onsite) is aimed at advanced-level professionals who wish to secure TinyML pipelines and implement privacy-preserving techniques in edge AI applications.
At the conclusion of this course, participants will be able to:
- Identify security risks unique to on-device TinyML inference.
- Implement privacy-preserving mechanisms for edge AI deployments.
- Harden TinyML models and embedded systems against adversarial threats.
- Apply best practices for secure data handling in constrained environments.
Format of the Course
- Engaging lectures supported by expert-led discussions.
- Practical exercises emphasizing real-world threat scenarios.
- Hands-on implementation using embedded security and TinyML tooling.
Course Customization Options
- Organizations may request a tailored version of this training to align with their specific security and compliance needs.
安全で信頼性のあるエージェンシックAI:ガバナンス、アイデンティティ管理、レッドチームテスト
21 時間このコースでは、エージェンシックAIシステムのガバナンス、アイデンティティ管理、対抗テストについて学びます。特にエンタープライズ向けの安全な展開パターンと実践的なレッドチーム技術に焦点を当てています。
このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、高度なスキルを持つ実務者を対象としており、生産環境でのエージェントベースAIシステムの設計、セキュリティ、評価について学ぶことができます。
このトレーニング終了時には、参加者は以下ができます:
- エージェンシックAIの安全な展開に適したガバナンスモデルとポリシーを定義します。
- 最小特権アクセスを持つエージェント用の非人間アイデンティティおよび認証フローを設計します。
- 自動化されたエージェントに適したアクセス制御、監査トレール、可観測性を実装します。
- ミス使用、権限昇格パス、データ漏洩リスクの発見のためにレッドチーム演習を計画し実行します。
- 政策、エンジニアリング制御、監視を通じてエージェンシックシステムに対する一般的な脅威を軽減します。
コース形式
- インタラクティブな講義と脅威モデルワークショップ。
- 実践的なラボ:アイデンティティのプロビジョニング、ポリシーの適用、対抗者シミュレーション。
- レッドチーム/ブルーチーム演習とコース終了時の評価。
コースカスタマイゼーションオプション
- このコースのカスタムトレーニングをご希望の場合、ご連絡ください。