コース概要

自律システムにおける倫理の基礎

  • AIエージェントにおける自律性の定義
  • 機械の行動に適用される主要な倫理理論
  • ステークホルダーの視点と価値感度設計

社会的リスクと重要なユースケース

  • 公共安全、健康、防衛における自律エージェント
  • 人間とAIの協調作業と信頼境界
  • 意図しない結果とリスク増大のシナリオ

法的および規制環境

  • AI立法と政策動向の概要(EU AI法、NIST、OECD)
  • AIエージェントの責任、賠償責任、法律上の人格
  • グローバルな統治イニシアチブとギャップ

説明可能性と意思決定の透明性

  • ブラックボックス型自律的判断の課題
  • 説明可能で監査可能なエージェントを設計する
  • 透明性ツールとフレームワーク(例:モデルカード、データシート)

一致、制御、および道徳的責任

  • エージェントの行動に対するAI一致戦略
  • ヒューマンインザループ対ヒューマノンザループ制御パラダイム
  • デザイナー、ユーザー、機関間の共有責任

倫理的リスク評価と軽減

  • エージェント設計におけるリスクマッピングと重大な失敗分析
  • 安全装置とオフスイッチメカニズム
  • バイアス、差別、公平性の監査

統治設計と機関の監視

  • 責任あるAI統治の原則
  • マルチステークホルダーによる監視モデルと監査
  • 自律エージェント用コンプライアンスフレームワークの設計

まとめと今後のステップ

要求

  • AIシステムと機械学習の基本的な理解
  • 自律エージェントとその応用に関する知識
  • 技術政策における倫理的および法的フレームワークの知識

対象者

  • AI倫理学者
  • 政策立案者と規制当局者
  • 上級AI実践者と研究者
 14 時間

参加者の人数


参加者1人当たりの料金

今後のコース

関連カテゴリー