コース概要

機械学習モデルの展開準備

  • Docker を使用したモデルのパッケージ化
  • TensorFlow と PyTorch からモデルをエクスポートする
  • バージョン管理とストレージの考慮点

Kubernetes 上でのモデル提供

  • 推論サーバーの概要
  • TensorFlow Serving と TorchServe の展開
  • モデルエンドポイントの設定

推論最適化テクニック

  • バッチング戦略
  • 並列リクエスト処理
  • レイテンシとスループットの調整

ML ワークロードの自動スケーリング

  • Horizontal Pod Autoscaler (HPA)
  • Vertical Pod Autoscaler (VPA)
  • Kubernetes Event-Driven Autoscaling (KEDA)

GPU 設定とリソース管理

  • GPU ノードの設定
  • NVIDIA デバイスプラグインの概要
  • ML ワークロードのリソース要求と制限

モデル展開とリリース戦略

  • Blue/Green 展開
  • カニデプロイメントパターン
  • モデル評価のための A/B テスト

本番環境での ML の監視と可観測性

  • 推論ワークロードのメトリクス
  • ロギングとトレーシングの実践
  • ダッシュボードとアラート

セキュリティと信頼性の考慮点

  • モデルエンドポイントのセキュリティ
  • ネットワークポリシーとアクセス制御
  • 高可用性の確保

まとめと次なるステップ

要求

  • コンテナ化アプリケーションワークフローの理解
  • Python ベースの機械学習モデルの使用経験
  • Kubernetes の基本的な知識

対象者

  • ML エンジニア
  • DevOps エンジニア
  • プラットフォームエンジニアリングチーム
 14 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (5)

今後のコース

関連カテゴリー