コース概要

Dockerを使用したAI推論の概要

  • AI推論ワークロードの理解
  • コンテナ化された推論のメリット
  • 展開シナリオと制約条件

AI推論コンテナの構築

  • 基盤イメージとフレームワークの選択
  • 事前学習済みモデルのパッケージ化
  • コンテナ実行用に推論コードを構造化する

コンテナ化されたAIサービスのセキュリティ確保

  • コンテナ攻撃面積の最小化
  • 秘密情報と機密ファイルの管理
  • 安全なネットワークとAPI公開戦略

ポータブル展開技術

  • ポータビリティのためのイメージの最適化
  • 予測可能なランタイム環境を確保する
  • プラットフォーム間での依存関係の管理

ローカル展開とテスト

  • Dockerを使用してローカルでサービスを実行する
  • 推論コンテナのデバッグ
  • パフォーマンスと信頼性のテスト

サーバーとクラウドVMでの展開

  • リモート環境に適応したコンテナの使用
  • 安全なサーバーアクセスの構成
  • クラウドVM上で推論APIを展開する

Docker Composeを使用したマルチサービスAIシステム

  • サポートコンポーネントとともに推論のオーケストレーション
  • 環境変数と設定の管理
  • Composeを使用したマイクロサービスのスケーリング

AI推論サービスの監視とメンテナンス

  • ログと可観測性のアプローチ
  • 推論パイプラインでの障害検出
  • 本番環境でのモデルの更新とバージョン管理

まとめと次へのステップ

要求

  • 機械学習の基本概念を理解していること
  • Pythonまたはバックエンド開発の経験があること
  • コンテナの基礎概念に精通していること

対象者

  • 開発者
  • バックエンドエンジニア
  • AIサービスを展開するチーム
 14 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (5)

今後のコース

関連カテゴリー