コース概要

ロボティクスにおける安全性と説明可能性の導入

  • ロボットシステムの安全性と透明性の概要
  • ロボットとAIに関する規制および倫理的文脈
  • 規格とフレームワーク:ISO 26262、ISO 10218、およびISO/IEC 42001

リスクと危険性分析

  • 自律および半自律システムにおける危険性の識別
  • 故障モードおよび影響分析(FMEA)の実施
  • 安全設計を通じたリスク量化と軽減

検証と検証手法

  • シミュレーション環境でのロボット動作のテスト
  • 形式的検証とテストケース設計
  • データ駆動型の検証および監視手法

安全性ケース開発

  • 安全性ケースの構造と内容
  • コンプライアンスとトレーサビリティの文書化
  • 証拠管理およびリスク正当化に使用するツール

ロボティクスのための説明可能なAI

  • 意思決定プロセスの透明性の確保
  • MLベースの制御システムの解釈手法
  • ユーザーと規制当局に対してロボット動作を説明する

倫理および統治上の考慮事項

  • ロボットや自律システムにおける倫理原則
  • AI駆動型ロボティクスにおけるバイアス、説明責任、および責任
  • 公衆の信頼と規制とのバランスを取る

実践ワークショップ:安全で説明可能なロボティクスシナリオの構築

  • ROS 2またはGazeboを使用した小型ロボットシミュレーションの設計
  • 検証と検証手順の適用
  • 安全性ケース概要の開発と提示

まとめと次なるステップ

要求

  • ロボットシステムと制御アーキテクチャに関する基本的な理解
  • Pythonプログラミングとシミュレーションツールの使用経験
  • システムエンジニアリングまたは安全性プロセスの知識

対象者

  • ロボットや自律システムに携わるシステムエンジニア
  • 機能安全基準のコンプライアンスを確保する安全性管理者
  • ロボットの統合と展開を監督する技術マネージャー
 21 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (1)

今後のコース

関連カテゴリー