コース概要

ハイブリッドAIデプロイメントの基礎

  • ハイブリッド、クラウド、エッジデプロイメントモデルの理解
  • AIワークロード特性とインフラ制約
  • 適切なデプロイトポロジーの選択

Dockerを使用したAIワークロードのコンテナ化

  • GPUとCPU推論コンテナーの構築
  • セキュアなイメージとレジストリの管理
  • AI用の再現可能な環境の実装

クラウド環境へのAIサービスのデプロイ

  • Dockerを介してAWS、Azure、GCPで推論を実行
  • モデルサービング用のクラウドコンピュートプロビジョニング
  • クラウドベースのAIエンドポイントのセキュリティ確保

エッジおよびオンプレミスデプロイメント手法

  • IoTデバイス、ゲートウェイ、マイクロサーバーでのAI実行
  • エッジ環境用の軽量ランタイム
  • 間欠的な接続性とローカル永続性の管理

ハイブリッドネットワーキングとセキュア接続

  • エッジとクラウド間のセキュアトンネル
  • 証明書、シークレット、トークンベースのアクセス
  • 低遅延推論のためのパフォーマンスチューニング

分散型AIデプロイメントのオーケストレーション

  • K3s、K8s、または軽量オーケストレーションを使用したハイブリッドセットアップ
  • サービスディスカバリとワークロードスケジューリング
  • 複数拠点展開戦略の自動化

環境間の監視と可観測性

  • 様々なロケーションでの推論パフォーマンスの追跡
  • ハイブリッドAIシステムの集中ログ管理
  • 故障検出と自動復旧

ハイブリッドAIシステムのスケーリングと最適化

  • エッジクラスタとクラウドノードのスケーリング
  • バンド幅使用量とキャッシュの最適化
  • クラウドとエッジ間での計算負荷のバランス調整

まとめと次なるステップ

要求

  • コンテナ化概念の理解
  • Linuxコマンドライン操作の経験
  • AIモデルデプロイメントワークフローに関する知識

対象者

  • インフラストラクチャアーキテクト
  • サイト信頼性エンジニア(SRE)
  • エッジおよびIoT開発者
 21 時間

参加者の人数


参加者1人あたりの価格

お客様の声 (5)

今後のコース

関連カテゴリー