コース概要

大規模言語モデル (LLMs) の紹介

  • LLMs の概要
  • 定義と重要性
  • 今日の AI における応用例

トランスフォーマー構造

  • トランスフォーマーとは何か、どのように機能するか
  • 主な構成要素と特徴
  • 埋め込みと位置エンコーディング
  • マルチヘッドアテンション
  • フィードフォワードニューラルネットワーク
  • 正規化と残差接続

トランスフォーマーモデル

  • 自己注意機構
  • エンコーダー-デコーダー構造
  • 位置埋め込み
  • BERT (Bidirectional Encoder Representations from Transformers)
  • GPT (Generative Pretrained Transformer)

パフォーマンス最適化と落とし穴

  • コンテキスト長
  • Mamba と状態空間モデル
  • フラッシュアテンション
  • 疎トランスフォーマー
  • ビジョントランスフォーマー
  • 量子化の重要性

トランスフォーマーの改善

  • 検索強化テキスト生成
  • モデルの混合
  • 思考の木構造

微調整

  • 低ランク適応理論
  • QLora での微調整

LLMs のスケーリング法則と最適化

  • LLMs におけるスケーリング法則の重要性
  • データサイズとモデルサイズのスケーリング
  • 計算量のスケーリング
  • パラメータ効率のスケーリング

最適化

  • モデルサイズ、データサイズ、計算予算、推論要件の関係
  • LLMs の性能と効率の最適化
  • 訓練と微調整のためのベストプラクティスとツール

LLMs の訓練と微調整

  • ゼロから LLMs を訓練する手順と課題
  • データ取得と維持
  • 大規模データ、CPU、メモリ要件
  • 最適化の課題
  • オープンソース LLMs の現状

強化学習 (RL) の基礎

  • 強化学習の紹介
  • 肯定的な強化による学習
  • 定義と核心概念
  • マルコフ決定プロセス (MDP)
  • 動的計画法
  • モンテカルロ法
  • 時間差学習

深層強化学習

  • Deep Q-Networks (DQN)
  • Proximal Policy Optimization (PPO)
  • 強化学習の要素

LLMs と強化学習の統合

  • LLMs と強化学習の組み合わせ
  • RL が LLMs でどのように使用されるか
  • 人間フィードバックによる強化学習 (RLHF)
  • RLHF の代替方法

事例研究と応用例

  • 実際のアプリケーション
  • 成功事例と課題

高度なトピック

  • 高度な技術
  • 高度な最適化手法
  • 最先端の研究と発展

まとめと次なるステップ

要求

  • 機械学習の基本的な理解

対象者

  • データサイエンティスト
  • ソフトウェアエンジニア
 21 時間

参加者の人数


参加者1人当たりの料金

今後のコース

関連カテゴリー