お問い合わせ

コース概要

セキュアなローカル AI の基礎

  • 規制環境におけるローカルおよびオンプレミス AI の意味
  • 機密ワークロードに対するクラウド AI と社内デプロイメントの比較
  • プライベートアシスタントおよびワークフロー支援に関する一般的なエンタープライズユースケース
  • セキュアなローカル AI アーキテクチャの中核コンポーネント

Ollama およびオープンモデルの基礎

  • ローカル開発スタックにおける Ollama の役割
  • モデルのローカルでのプッシュ、実行、および管理
  • サイズ、品質、ハードウェア、ライセンスに基づくモデルの選択
  • モデルオプションと実務的なビジネスタスクとの整合性

オンプレミス環境の準備

  • ホスト、ワークステーション、およびサーバーの準備
  • ローカル推論向けに Ollama のインストールと設定
  • コンテナおよび社内開発ツールの活用
  • API アクセスおよび基本的な運用準備状況の確認

ローカルモデルの効果的な活用

  • システム指示によるプロンプトの実行と出力の調整
  • 一貫性のあるエンタープライズタスク向けテンプレートの再利用
  • モデルバージョンおよび社内アートの管理
  • CPU および GPU デプロイメント向けの基本的なパフォーマンスチューニング

実用的なエージェント型ワークフローの構築

  • 管理された環境におけるワークフローのエージェント性を定義する要素
  • 計画、ツール使用、レスポンスループのためのシンプルなパターン
  • 社内運用向けのタスク特化型アシスタントの設計
  • 人間のレビュー、フォールバックロジック、およびエラーハンドリングの追加

プライベート検索ワークフロー

  • 社内知識アクセスのための検索拡張生成(RAG)の基礎
  • チャンキング、インデックス作成、検索向けドキュメントの準備
  • ローカルベクトルストアと Ollama ベースのアプリケーションの連携
  • より優れた検索パターンによる関連性および回答品質の向上

セキュリティ、ガバナンス、コンプライアンスの実践

  • データ処理の境界およびプライバシーに関する考慮事項
  • アクセス制御、ログ記録、および監査対応
  • プロンプトの安全性、出力制御、およびガードレール
  • 規制されたデプロイメントおよび運用のためのガバナンスチェックポイント

エンタープライズ統合パターン

  • 社内 API を通じたローカル AI 機能の公開
  • アシスタントと社内アプリケーションおよびサービスの統合
  • アシスタント、バッチ、およびワークフロー自動化ユースケースへの対応
  • 管理されたネットワーク境界内でのソリューションの維持

ローカル AI ソリューションの評価

  • 品質、信頼性、および一貫性の評価
  • ビジネス、ポリシー、およびセキュリティ要件に対するテスト
  • 特定のエンタープライズタスク向けモデルオプションの比較
  • 社内チーム向けの実践的な改善サイクルの確立

ハンズオン実装ラボ

  • Ollama とオープンモデルを用いたプライベートアシスタントの構築
  • 承認された社内ドキュメントに対する検索機能の追加
  • シンプルなエージェントアクションおよびセキュリティ制御の導入
  • デプロイメント、運用、およびガバナンスチェックポイントのレビュー

導入計画および次のステップ

  • 主要な設計およびデプロイメント決定事項のレビュー
  • 規制 AI プロジェクトにおける一般的な失敗要因の特定
  • パイロットユースケースおよびステークホルダーとの調整計画の策定
  • セキュアなローカル AI 導入のためのロードマップの定義

要求

  • AI の概念およびソフトウェア開発に関する基本的な理解
  • コマンドラインツール、コンテナ、またはローカル開発環境への習熟
  • スクリプト作成またはプログラミングの基礎経験

対象者

  • 社内インフラストラクチャ上でプライベートな AI ソリューションを構築する開発者および技術チーム
  • 規制環境における AI をサポートするセキュリティ、コンプライアンス、プラットフォーム専門家
  • オンプレミス AI 導入を検討している金融、医療、政府、防衛分野の技術リーダー
 21 時間

参加者の人数


参加者1人あたりの価格

今後のコース

関連カテゴリー