コース概要

安全で公正なAIの基礎

  • 主要概念:安全性、バイアス、フェアネス、透明性
  • バイアスの種類:データセット、表現、アルゴリズム
  • 規制フレームワークの概要(EU AI Act, GDPRなど)

ファインチューニングモデルにおけるバイアス

  • ファインチューニングがバイアスを導入または増幅する方法
  • 事例研究と実世界の失敗事例
  • データセットとモデル予測におけるバイアスの特定

バイアス軽減技術

  • データレベルの戦略(バランス調整、拡張)
  • トレーニング中の戦略(正則化、敵対的デバイアシング)
  • 後処理の戦略(出力フィルタリング、キャリブレーション)

モデルの安全性と堅牢性

  • 不安全または有害な出力を検出する。
  • 敵対的入力の取り扱い。
  • ファインチューニングされたモデルのレッドチームテストとストレステスト。

AIシステムの監査とモニタリング

  • バイアスとフェアネス評価指標(例:人口統計的均等性)
  • 説明可能性ツールと透明性フレームワーク
  • 継続的な監視とガバナンス実践

ツールキットと手動練習

  • オープンソースライブラリの使用(例:Fairlearn, Transformers, CheckList)
  • 手動:ファインチューニングされたモデルにおけるバイアスの検出と軽減。
  • プロンプト設計や制約を通じて安全な出力を生成する。

エンタープライズユースケースとコンプライアンス対応

  • LLMワークフローに安全性を統合するためのベストプラクティス。
  • コンプライアンスのためのドキュメンテーションとモデルカード。
  • 監査や外部レビューへの準備。

まとめと次回ステップ

要求

  • 機械学習モデルとトレーニングプロセスの理解。
  • ファインチューニングとLLMsの経験。
  • PythonとNLP概念の知識。

対象者

  • AIコンプライアンステーム。
  • MLエンジニア。
 14 時間

参加者の人数


参加者1人当たりの料金

今後のコース

関連カテゴリー