Fine-Tuning Models and Large Language Models (LLMs)のトレーニングコース
Fine-tuning models and LLMs is a key process in adapting pre-trained machine learning models to specific tasks and datasets. This course explores the techniques, tools, and best practices for fine-tuning, focusing on practical implementations and optimization strategies for achieving high performance.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level professionals who wish to customize pre-trained models for specific tasks and datasets.
By the end of this training, participants will be able to:
- Understand the principles of fine-tuning and its applications.
- Prepare datasets for fine-tuning pre-trained models.
- Fine-tune large language models (LLMs) for NLP tasks.
- Optimize model performance and address common challenges.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
コース概要
Introduction to Fine-Tuning
- What is fine-tuning?
- Use cases and benefits of fine-tuning
- Overview of pre-trained models and transfer learning
Preparing for Fine-Tuning
- Collecting and cleaning datasets
- Understanding task-specific data requirements
- Exploratory data analysis and preprocessing
Fine-Tuning Techniques
- Transfer learning and feature extraction
- Fine-tuning transformers with Hugging Face
- Fine-tuning for supervised vs unsupervised tasks
Fine-Tuning Large Language Models (LLMs)
- Adapting LLMs for NLP tasks (e.g., text classification, summarization)
- Training LLMs with custom datasets
- Controlling LLM behavior with prompt engineering
Optimization and Evaluation
- Hyperparameter tuning
- Evaluating model performance
- Addressing overfitting and underfitting
Scaling Fine-Tuning Efforts
- Fine-tuning on distributed systems
- Leveraging cloud-based solutions for scalability
- Case studies: Large-scale fine-tuning projects
Best Practices and Challenges
- Best practices for fine-tuning success
- Common challenges and troubleshooting
- Ethical considerations in fine-tuning AI models
Advanced Topics (Optional)
- Fine-tuning multi-modal models
- Zero-shot and few-shot learning
- Exploring LoRA (Low-Rank Adaptation) techniques
Summary and Next Steps
要求
- Understanding of machine learning fundamentals
- Experience with Python programming
- Familiarity with pre-trained models and their applications
Audience
- Data scientists
- Machine learning engineers
- AI researchers
オープントレーニングコースには5人以上が必要です。
Fine-Tuning Models and Large Language Models (LLMs)のトレーニングコース - 予約
Fine-Tuning Models and Large Language Models (LLMs)のトレーニングコース - お問い合わせ
Fine-Tuning Models and Large Language Models (LLMs) - コンサルティングお問い合わせ
コンサルティングお問い合わせ
今後のコース
関連コース
Advanced LangGraph: Optimization, Debugging, and Monitoring Complex Graphs
35 時間LangGraph is a framework for building stateful, multi-actor LLM applications as composable graphs with persistent state and control over execution.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI platform engineers, DevOps for AI, and ML architects who wish to optimize, debug, monitor, and operate production-grade LangGraph systems.
By the end of this training, participants will be able to:
- Design and optimize complex LangGraph topologies for speed, cost, and scalability.
- Engineer reliability with retries, timeouts, idempotency, and checkpoint-based recovery.
- Debug and trace graph executions, inspect state, and systematically reproduce production issues.
- Instrument graphs with logs, metrics, and traces, deploy to production, and monitor SLAs and costs.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Devstralを使用したコーディングエージェントの構築: エージェント設計からツールの利用まで
14 時間Devstralは、コードベース、開発者ツール、APIと連携してエンジニアリング生産性を向上させるコーディングエージェントの構築と実行のために設計されたオープンソースフレームワークです。
この講師主導のライブトレーニング(オンラインまたはオンサイト)は、中級から上級レベルのMLエンジニア、開発者ツールチーム、およびSRE向けに提供され、Devstralを使用してコーディングエージェントを設計、実装、最適化する方法を学びます。
このトレーニング終了時には、参加者は以下のことができるようになります:
- コーディングエージェント開発のためのDevstralをセットアップし、設定する。
- コードベースの探索と変更のためのエージェンシーワークフローを設計する。
- コーディングエージェントを開発者ツールやAPIと統合する。
- セキュアで効率的なエージェントの展開に関するベストプラクティスを実装する。
コース形式
- 対話型講義とディスカッション。
- 多くの演習と練習。
- ライブラボ環境での手動実装。
コースのカスタマイズオプション
- このコースのカスタマイズされたトレーニングをリクエストする場合は、ご連絡ください。
オープンソースのモデルオペレーション: Devstral & Mistral モデルのセルフホスティング、ファインチューニング、およびガバナンス
14 時間Devstral と Mistral モデルは、柔軟な展開、ファインチューニング、およびスケーラブルな統合を目的としたオープンソースの AI 技術です。
この講師主導のライブトレーニング(オンラインまたはオンサイト)は、中級から上級レベルの ML エンジニア、プラットフォームチーム、および研究エンジニアを対象としています。本コースでは、Mistral と Devstral モデルをプロダクション環境でセルフホストし、ファインチューニングを行い、ガバナンスを行う方法を学びます。
このトレーニングの終了時には、参加者は以下のことができます:
- Mistral と Devstral モデル用のセルフホスト環境を設定および構成する。
- ドメイン固有のパフォーマンス向上のためにファインチューニング手法を適用する。
- バージョン管理、監視、ライフサイクルガバナンスを実装する。
- オープンソースモデルのセキュリティ、コンプライアンス、および責任ある使用を確保する。
コース形式
- 対話型の講義とディスカッション。
- セルフホストとファインチューニングに関する実践的な演習。
- ガバナンスと監視パイプラインのライブラボ実装。
コースカスタマイゼーションオプション
- このコースのカスタマイズされたトレーニングを希望する場合は、お問い合わせください。
LangGraph Applications in Finance
35 時間LangGraphは、状態を持ち、複数のアクターが参加するLLMアプリケーションを組み合わせ可能なグラフとして構築し、永続的な状態と実行制御を提供するフレームワークです。
このインストラクターリードのライブトレーニング(オンラインまたはオンサイト)は、中級から上級レベルの専門家向けで、LangGraphベースの金融ソリューションを適切なガバナンス、可視化、および準拠性とともに設計、実装、運用する方法を学びます。
このトレーニングの終了時、参加者は以下のことを達成することができます:
- 規制と監査要件に準拠した金融専用のLangGraphワークフローを設計します。
- グラフ状態やツールに金融データ標準と本体論を統合します。
- 重要なプロセスに対して信頼性、安全性、およびヒューマンインザループ制御を実装します。
- パフォーマンス、コスト、SLAの観点からLangGraphシステムをデプロイ、監視、最適化します。
コース形式
- 対話型の講義とディスカッション。
- 多くの演習と実践。
- ライブラボ環境での手動実装。
コースカスタマイズオプション
- このコースのカスタマイズトレーニングを希望される場合は、ご連絡ください。
LangGraph Foundations: Graph-Based LLM Prompting and Chaining
14 時間LangGraphは、計画、分岐、ツールの使用、メモリ、および制御可能な実行をサポートするグラフ構造のLLMアプリケーションを構築するためのフレームワークです。
このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、LangGraphを使用して信頼性の高い複数ステップのLLMワークフローを設計および構築したい初心者の開発者、プロンプトエンジニア、データ実践者向けです。
このトレーニング終了時には、参加者は次のことができます:
- LangGraphの基本概念(ノード、エッジ、状態)を説明し、使用するタイミングを理解します。
- 分岐、ツールの呼び出し、メモリの維持を行うプロンプトチェーンを構築します。
- グラフワークフローに検索と外部APIを統合します。
- 信頼性と安全性を評価するためにLangGraphアプリケーションをテスト、デバッグ、および評価します。
コースの形式
- 対話型の講義とファシリテートされた議論。
- サンドボックス環境でのガイドルームとコードウォークスルー。
- 設計、テスト、評価に関するシナリオベースの演習。
コースカスタマイズオプション
- このコースのカスタマイズされたトレーニングを依頼するには、お問い合わせください。
LangGraph in Healthcare: Workflow Orchestration for Regulated Environments
35 時間LangGraph enables stateful, multi-actor workflows powered by LLMs with precise control over execution paths and state persistence. In healthcare, these capabilities are crucial for compliance, interoperability, and building decision-support systems that align with medical workflows.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level professionals who wish to design, implement, and manage LangGraph-based healthcare solutions while addressing regulatory, ethical, and operational challenges.
By the end of this training, participants will be able to:
- Design healthcare-specific LangGraph workflows with compliance and auditability in mind.
- Integrate LangGraph applications with medical ontologies and standards (FHIR, SNOMED CT, ICD).
- Apply best practices for reliability, traceability, and explainability in sensitive environments.
- Deploy, monitor, and validate LangGraph applications in healthcare production settings.
Format of the Course
- Interactive lecture and discussion.
- Hands-on exercises with real-world case studies.
- Implementation practice in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph for Legal Applications
35 時間LangGraph is a framework for building stateful, multi-actor LLM applications as composable graphs with persistent state and precise control over execution.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level professionals who wish to design, implement, and operate LangGraph-based legal solutions with the necessary compliance, traceability, and governance controls.
By the end of this training, participants will be able to:
- Design legal-specific LangGraph workflows that preserve auditability and compliance.
- Integrate legal ontologies and document standards into graph state and processing.
- Implement guardrails, human-in-the-loop approvals, and traceable decision paths.
- Deploy, monitor, and maintain LangGraph services in production with observability and cost controls.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Dynamic Workflows with LangGraph and LLM Agents
14 時間LangGraph is a framework for composing graph-structured LLM workflows that support branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at intermediate-level engineers and product teams who wish to combine LangGraph’s graph logic with LLM agent loops to build dynamic, context-aware applications such as customer support agents, decision trees, and information retrieval systems.
By the end of this training, participants will be able to:
- Design graph-based workflows that coordinate LLM agents, tools, and memory.
- Implement conditional routing, retries, and fallbacks for robust execution.
- Integrate retrieval, APIs, and structured outputs into agent loops.
- Evaluate, monitor, and harden agent behavior for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based design exercises and peer reviews.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph for Marketing Automation
14 時間LangGraph is a graph-based orchestration framework that enables conditional, multi-step LLM and tool workflows, ideal for automating and personalizing content pipelines.
This instructor-led, live training (online or onsite) is aimed at intermediate-level marketers, content strategists, and automation developers who wish to implement dynamic, branching email campaigns and content generation pipelines using LangGraph.
By the end of this training, participants will be able to:
- Design graph-structured content and email workflows with conditional logic.
- Integrate LLMs, APIs, and data sources for automated personalization.
- Manage state, memory, and context across multi-step campaigns.
- Evaluate, monitor, and optimize workflow performance and delivery outcomes.
Format of the Course
- Interactive lectures and group discussions.
- Hands-on labs implementing email workflows and content pipelines.
- Scenario-based exercises on personalization, segmentation, and branching logic.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Le Chat Enterprise: Private ChatOps, Integrations & Admin Controls
14 時間Le Chat Enterprise is a private ChatOps solution that provides secure, customizable, and governed conversational AI capabilities for organizations, with support for RBAC, SSO, connectors, and enterprise app integrations.
This instructor-led, live training (online or onsite) is aimed at intermediate-level product managers, IT leads, solution engineers, and security/compliance teams who wish to deploy, configure, and govern Le Chat Enterprise in enterprise environments.
By the end of this training, participants will be able to:
- Set up and configure Le Chat Enterprise for secure deployments.
- Enable RBAC, SSO, and compliance-driven controls.
- Integrate Le Chat with enterprise applications and data stores.
- Design and implement governance and admin playbooks for ChatOps.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Cost-Effective LLM Architectures: Mistral at Scale (Performance / Cost Engineering)
14 時間Mistral is a high-performance family of large language models optimized for cost-effective production deployment at scale.
This instructor-led, live training (online or onsite) is aimed at advanced-level infrastructure engineers, cloud architects, and MLOps leads who wish to design, deploy, and optimize Mistral-based architectures for maximum throughput and minimum cost.
By the end of this training, participants will be able to:
- Implement scalable deployment patterns for Mistral Medium 3.
- Apply batching, quantization, and efficient serving strategies.
- Optimize inference costs while maintaining performance.
- Design production-ready serving topologies for enterprise workloads.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Mistral コネクタと統合を使用した対話型アシスタントの製品化
14 時間Mistral AI は、チームがエンタープライズおよび顧客向けワークフローに会話型アシスタントを構築し、統合できるオープン AI プラットフォームです。
このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)は、初級レベルから中級レベルのプロダクトマネージャー、フルスタック開発者、および統合エンジニアを対象としており、Mistral コネクタと統合を使用して会話型アシスタントを設計し、統合し、製品化することを目指しています。
このトレーニングの終了時には、参加者は以下のことができるようになります:
- Mistral 会話モデルをエンタープライズおよび SaaS コネクタと統合する。
- 接地した応答のためにリトリーバル拡張生成(RAG)を実装する。
- 内部および外部のチャットアシスタント用の UX パターンを設計する。
- 製品ワークフローにアシスタントをデプロイし、実際のユースケースに対応する。
コース形式
- 対話型講義とディスカッション。
- 手を動かす統合演習。
- 会話型アシスタントのライブラボ開発。
コースのカスタマイズオプション
- このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
Mistral Medium 3による企業向け展開
14 時間Mistral Medium 3は、エンタープライズ環境での本格的な展開を念頭に設計された高性能なマルチモーダル大規模言語モデルです。
このインストラクター主導のライブトレーニング(オンラインまたはオンサイト)では、中級レベルから上級レベルのAI/MLエンジニア、プラットフォームアーキテクト、MLOpsチームを対象としています。彼らはMistral Medium 3を企業ユースケース向けに展開、最適化、およびセキュアにする方法を学びます。
このトレーニング終了時には、参加者は以下のことができるようになります:
- APIと自己ホスティングオプションを使用してMistral Medium 3を展開する。
- 推論のパフォーマンスとコストを最適化する。
- Mistral Medium 3でマルチモーダルユースケースを実装する。
- エンタープライズ環境でのセキュリティとコンプライアンスのベストプラクティスを適用する。
コース形式
- 対話型講義とディスカッション。
- 多くの演習と実践。
- ライブラボ環境でのハンズオン実装。
コースのカスタマイゼーションオプション
- このコースのカスタマイズトレーニングを希望される場合は、お問い合わせください。
Mistral for Responsible AI: Privacy, Data Residency & Enterprise Controls
14 時間Mistral AI is an open and enterprise-ready AI platform that provides features for secure, compliant, and responsible AI deployment.
This instructor-led, live training (online or onsite) is aimed at intermediate-level compliance leads, security architects, and legal/ops stakeholders who wish to implement responsible AI practices with Mistral by leveraging privacy, data residency, and enterprise control mechanisms.
By the end of this training, participants will be able to:
- Implement privacy-preserving techniques in Mistral deployments.
- Apply data residency strategies to meet regulatory requirements.
- Set up enterprise-grade controls such as RBAC, SSO, and audit logs.
- Evaluate vendor and deployment options for compliance alignment.
Format of the Course
- Interactive lecture and discussion.
- Compliance-focused case studies and exercises.
- Hands-on implementation of enterprise AI controls.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Mistral モデルを使用したマルチモーダル アプリケーション (ビジョン、OCR、およびドキュメント理解)
14 時間Mistral モデルはオープンソースの AI 技術で、現在では言語とビジョンの両方を扱うマルチモーダルなワークフローにも拡張されています。これにより、エンタープライズおよび研究用アプリケーションでの使用が可能になりました。
このインストラクター主導のライブトレーニング (オンラインまたはオンサイト) は、中級レベルの ML 研究者、応用エンジニア、製品チームを対象としており、Mistral モデルを使用してマルチモーダル アプリケーション、OCR やドキュメント理解パイプラインを構築したい方向けです。
このトレーニングの終了時には、参加者は以下のことが Able to になります:
- Mistral モデルをマルチモーダル タスクに設定および構成する。
- OCR ワークフローを実装し、NLP パイプラインと統合する。
- エンタープライズ用のドキュメント理解アプリケーションを設計する。
- ビジョン-テキスト検索や支援 UI 機能を開発する。
コース形式
- 対話型の講義とディスカッション。
- 手動コーディング演習。
- マルチモーダル パイプラインのライブラボ実装。
コースのカスタマイズ オプション
- このコースのカスタマイズされたトレーニングを希望される場合は、ご連絡ください。