コース概要

導入

このセクションでは、「機械学習」の使用タイミング、考慮すべき事項、その意味を含む利点と欠点について一般的な紹介を行います。データ型(構造化/非構造化/静的/ストリーム)、データの有効性/量、データ主導対ユーザー主導の分析、統計モデル対機械学習モデル/教師なし学習の課題、バイアス-分散のトレードオフ、反復/評価、交差検証手法、教師あり/教師なし/強化学習。

主要なトピック

1. ナイーブベイズの理解

  • ベイジアン方法の基本概念
  • 確率
  • 同時確率
  • ベイーズの定理による条件付き確率
  • ナイーブベイズアルゴリズム
  • ナイーブベイズ分類
  • Laplace 推定量
  • 数値特徴を用いたナイーブベイズの使用

2. 決定木の理解

  • 分割と統合
  • C5.0 決定木アルゴリズム
  • 最良の分割の選択
  • 決定木の剪定

3. ニューラルネットワークの理解

  • 生物学的なニューロンから人工的なニューロンへ
  • 活性化関数
  • ネットワークトポロジー
  • 層の数
  • 情報伝達方向
  • 各層のノード数
  • バックプロパゲーションを用いたニューラルネットワークの学習
  • ディープラーニング

4. サポートベクターマシンの理解

  • 超平面による分類
  • 最大余裕の探索
  • 線形可分データの場合
  • 非線形可分データの場合
  • 非線形空間でのカーネル使用

5. クラスタリングの理解

  • クラスタリングを機械学習タスクとして
  • k-means アルゴリズムによるクラスタリング
  • 距離を使用したクラスタの割り当てと更新
  • 適切なクラスタ数の選択

6. 分類の性能測定

  • 分類予測データの取り扱い
  • 混合行列の詳細
  • 混合行列を用いた性能測定
  • 精度以外の性能指標
  • Kappa 統計量
  • 感度と特異度
  • 適合率と再現率
  • F値
  • 性能トレードオフの視覚化
  • ROC 曲線
  • 将来の性能推定
  • ホールアウト法
  • 交差検証
  • ブートストラップサンプリング

7. ストックモデルのチューニングによる性能向上

  • caret を使用した自動パラメータチューニング
  • 単純な調整済みモデルの作成
  • チューニングプロセスのカスタマイズ
  • メタ学習を用いたモデル性能向上
  • アンサンブルの理解
  • バギング
  • ブースティング
  • ランダムフォレスト
  • ランダムフォレストの訓練
  • ランダムフォレストの性能評価

補助的なトピック

8. 最近傍法による分類の理解

  • kNN アルゴリズム
  • 距離の計算
  • 適切な k の選択
  • kNN 用データの準備
  • なぜ kNN アルゴリズムは遅延型なのか?

9. 分類規則の理解

  • 分割と統合
  • One Rule アルゴリズム
  • RIPPER アルゴリズム
  • 決定木からの規則生成

10. 回帰の理解

  • 単回帰分析
  • 最小二乗推定
  • 相関
  • 重回帰分析

11. 回帰木とモデル木の理解

  • 木に回帰を追加する

12. 関連規則の理解

  • Apriori アルゴリズムによる関連規則学習
  • 支持度と信頼性による規則の興味測定
  • Apriori 原理を用いた規則集合の構築

エクストラ

  • Spark/PySpark/MLlib およびマルチアームバンディット

要求

Python の知識

 21 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (7)

今後のコース

関連カテゴリー