コース概要

組織の文脈でのEU AI Actの理解

  • 規制の目的と範囲
  • リーダーシップチームにとって重要な義務
  • 組織に対する戦略的リスクと機会

リスクカテゴリーと組織の責任

  • 禁止される実践と監督への影響
  • 高リスクシステムと必要な組織的コントロール
  • 限定的なリスクおよび最小限のリスクを持つシステムの要件

ガバナンスと説明責任構造

  • 明確な所有権と説明責任線の設計
  • 技術チームと準拠チーム間のクロスファンクショナル協力
  • AI展開のための意思決定フレームワーク

ポリシーの策定と内部文書化

  • 内部AIガバナンスポリシーの作成
  • 使用事例、リスク、軽減戦略の文書化
  • トレーサビリティと監査準備の確保

AI関連リスクの管理

  • AIリスクの識別、評価、優先順位付け
  • 操作コントロールとエスカレーション手順
  • 既存のプロセスにAIリスク管理を統合する

ベンダーと第三者の管理

  • サプライヤーの準拠主張の評価
  • AIツールおよびプラットフォームの契約要件
  • 組織内で使用される外部システムの監視

倫理的、社会的、組織的な考慮事項

  • 人的オーバーサイトの責任
  • 組織内外のステークホルダーとの透明性とコミュニケーション
  • 組織価値と负责任なAI実践の整合

準拠評価への準備

  • リーダーシップチームから期待される証拠
  • ガバナンスおよび監査プロセスの報告線
  • 継続的な改善と長期的準拠計画

まとめと次ステップ

要求

  • 組織のガバナンス構造に関する理解
  • 技術イニシアチブにおける戦略的意思決定の経験
  • リスク管理概念に精通していること

対象者

  • 経営陣
  • 部門およびプログラムの管理者
  • AI関連イニシアチブを監督する意思決定者
 7 時間

参加者の人数


参加者1人あたりの価格

今後のコース

関連カテゴリー