お問い合わせを送信いただきありがとうございます!当社のスタッフがすぐにご連絡いたします。
予約を送信いただきありがとうございます!当社のスタッフがすぐにご連絡いたします。
コース概要
組織の文脈でのEU AI Actの理解
- 規制の目的と範囲
- リーダーシップチームにとって重要な義務
- 組織に対する戦略的リスクと機会
リスクカテゴリーと組織の責任
- 禁止される実践と監督への影響
- 高リスクシステムと必要な組織的コントロール
- 限定的なリスクおよび最小限のリスクを持つシステムの要件
ガバナンスと説明責任構造
- 明確な所有権と説明責任線の設計
- 技術チームと準拠チーム間のクロスファンクショナル協力
- AI展開のための意思決定フレームワーク
ポリシーの策定と内部文書化
- 内部AIガバナンスポリシーの作成
- 使用事例、リスク、軽減戦略の文書化
- トレーサビリティと監査準備の確保
AI関連リスクの管理
- AIリスクの識別、評価、優先順位付け
- 操作コントロールとエスカレーション手順
- 既存のプロセスにAIリスク管理を統合する
ベンダーと第三者の管理
- サプライヤーの準拠主張の評価
- AIツールおよびプラットフォームの契約要件
- 組織内で使用される外部システムの監視
倫理的、社会的、組織的な考慮事項
- 人的オーバーサイトの責任
- 組織内外のステークホルダーとの透明性とコミュニケーション
- 組織価値と负责任なAI実践の整合
準拠評価への準備
- リーダーシップチームから期待される証拠
- ガバナンスおよび監査プロセスの報告線
- 継続的な改善と長期的準拠計画
まとめと次ステップ
要求
- 組織のガバナンス構造に関する理解
- 技術イニシアチブにおける戦略的意思決定の経験
- リスク管理概念に精通していること
対象者
- 経営陣
- 部門およびプログラムの管理者
- AI関連イニシアチブを監督する意思決定者
7 時間