お問い合わせを送信いただきありがとうございます!当社のスタッフがすぐにご連絡いたします。
予約を送信いただきありがとうございます!当社のスタッフがすぐにご連絡いたします。
コース概要
プロダクション展開への導入
- Fine-Tuned モデルの展開における主要な課題。
- 開発環境とプロダクション環境の違い。
- モデル展開に使用されるツールとプラットフォーム。
モデルの展開準備
- 標準形式(ONNX、TensorFlow SavedModel など)でのモデルエクスポート。
- 遅延とスループットのためにモデルを最適化する。
- エッジケースや実世界データでモデルをテストする。
コンテナ化によるモデル展開
- Docker の紹介。
- ML モデル用の Docker イメージの作成。
- コンテナのセキュリティと効率に関するベストプラクティス。
Kubernetes を使用した展開のスケーリング
- AI ワークロード用の Kubernetes の紹介。
- モデルホスティングのために Kubernetes クラスターをセットアップする。
- ロードバランシングと水平スケーリング。
モデルの監視とメンテナンス
- Prometheus と Grafana を使用した監視の実装。
- エラートレースとパフォーマンスのための自動化されたログ。
- モデルのドリフトや更新のための再学習パイプライン。
プロダクションでのセキュリティ確保
- モデル推論用 API のセキュリティ。
- 認証と権限管理メカニズム。
- データプライバシーの問題への対応。
事例研究と手動ラボ
- 感情分析モデルの展開。
- 機械翻訳サービスのスケーリング。
- 画像分類モデルの監視実装。
まとめと次なるステップ
要求
- 機械学習ワークフローに関する深い理解。
- ML モデルのファインチューニング経験。
- DevOps または MLOps の原則に精通していること。
対象者
- DevOps エンジニア。
- MLOps 専門家。
- AI 展開スペシャリスト。
21 時間
お客様の声 (1)
講師の監督と支援の下で、多くの実践的な演習が行われました。
Aleksandra - Fundacja PTA
コース - Mastering Make: Advanced Workflow Automation and Optimization
機械翻訳