Apache Sparkのトレーニングコース

Apache Sparkのトレーニングコース

地元の講師主導のApache Sparkの実習コースは、SparkがBig Dataエコシステムにどのように適合しているか、そしてデータ分析にSparkを使用する方法を実践的に実践しています。 Apache Sparkのトレーニングは、「オンサイトライブトレーニング」または「リモートライブトレーニング」として利用できます。現場での現場でのトレーニングは、 日本 NobleProgの企業研修センターで日本 。リモートライブトレーニングは、インタラクティブなリモートデスクトップを介して実行されます。 NobleProg - あなたの地域のトレーニングプロバイダー

Machine Translated

お客様の声

★★★★★
★★★★★

Sparkサブカテゴリ

Apache Sparkコース概要

コース名
期間
概要
コース名
期間
概要
21 時間
概要
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
7 時間
概要
Alluxioは、異種ストレージシステムをAlluxio 、アプリケーションがメモリ速度でデータと対話できるようにするオープンソースの仮想分散ストレージシステムです。 Intel、Baidu、Alibabaなどの企業で使用されています。

このインストラクター主導のライブトレーニングでは、参加者は、 Alluxioを使用してさまざまな計算フレームワークをストレージシステムとブリッジし、 Alluxioを使用してアプリケーションの作成を段階的にAlluxioマルチペタバイトスケールデータを効率的に管理する方法をAlluxioます。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Alluxio使用してアプリケーションを開発する
- 1つのネームスペースを保持しながら、ビッグデータシステムとアプリケーションを接続します
- 任意のストレージ形式のビッグデータから効率的に値を抽出します
- ワークロードのパフォーマンスを改善する
- Alluxioスタンドアロンまたはクラスター化の展開と管理

聴衆

- データサイエンティスト
- 開発者
- システム管理者

コースの形式

- 一部の講義、一部のディスカッション、演習、および実践的な実践
21 時間
概要
ビッグデータ分析では、相関関係、隠れたパターン、およびその他の有用な洞察を明らかにするために、大量のさまざまなデータセットを調べるプロセスが含まれます。

健康産業には、大量の複雑で異種の医療および臨床データがあります。医療データにビッグデータ分析を適用することは、医療の提供を改善するための洞察を引き出す大きな可能性を提示します。しかしながら、これらのデータセットの膨大さは、分析および臨床環境への実用化において大きな課題を投げかけている。

このインストラクター主導のライブトレーニング(リモート)では、参加者は一連の実践的なラボ実習を順を追って進めながら、ビッグデータ分析を健康のために実行する方法を学びます。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Hadoop MapReduceやSparkなどのビッグデータ分析ツールをインストールして設定する
- 医療データの特徴を理解する
- 医療データを扱うためにビッグデータ技術を適用する
- 健康応用の文脈でビッグデータシステムとアルゴリズムを研究する

観客

- 開発者
- データ科学者

コースの形式

- パートレクチャー、パートディスカッション、エクササイズ、そして実地練習。

注意

- このコースのためのカスタマイズされたトレーニングを要求するには、手配するために私達に連絡してください。
28 時間
概要
実世界の多くの問題はグラフで説明できます。たとえば、Webグラフ、ソーシャルネットワークグラフ、電車ネットワークグラフ、言語グラフなどです。これらのグラフは非常に大きくなる傾向があります。それらを処理するには、特殊なツールとプロセスのセットが必要です。これらのツールとプロセスは、 Graph Computing (Graph Analyticsとも呼ばれます)と呼ぶことができます。

この講師主導のライブトレーニングでは、参加者は、グラフデータを処理するためのテクノロジの提供および実装方法について学習します。目的は、実世界のオブジェクト、それらの特性および関係を識別し、次にこれらの関係をモデル化し、 Graph Computing (Graph Analyticsとも呼ばれる)アプローチを使用してデータとして処理することです。一連のケーススタディ、実践的な演習、および実際の展開を順を追って進める中で、まず概要を概説し、特定のツールを絞り込みます。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- グラフデータがどのように保持されトラバースされるのかを理解する。
- 特定のタスクに最適なフレームワークを選択します(グラフデータベースからバッチ処理フレームワークまで)。
- Hadoop 、Spark、 GraphX 、およびPregelを実装して、多数のマシンで並行してグラフコンピューティングを実行します。
- グラフ、プロセス、およびトラバースの観点から、実世界のビッグデータの問題を表示します。

コースの形式

- パートレクチャー、パートディスカッション、エクササイズ、そして激しい実習
21 時間
概要
Hortonworks Data Platform (HDP)は、Apache Hadoopエコシステムでビッグデータソリューションを開発するための安定した基盤を提供するオープンソースのApache Hadoopサポートプラットフォームです。

このインストラクター主導のライブトレーニング(オンサイトまたはリモート)は、 Hortonworks Data Platform (HDP)を紹介し、参加者にSpark + Hadoopソリューションの展開を説明します。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Hortonworksを使用して、 Hadoopを大規模に確実に実行します。
- Sparkのアジャイル分析ワークフローでHadoopのセキュリティ、ガバナンス、運用機能を統合します。
- Hortonworksを使用して、Sparkプロジェクトの各コンポーネントを調査、検証、認定、サポートします。
- 構造化、非構造化、移動中、保存中など、さまざまなタイプのデータを処理します。

コースの形式

- インタラクティブな講義とディスカッション。
- たくさんの練習と練習。
- ライブラボ環境での実践的な実装。

コースのカスタマイズオプション

- このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
21 時間
概要
Stream Processingとは、「移動中のデータ」のリアルタイム処理、つまり受信中のデータに対して計算を実行することです。このようなデータは、センサーイベント、Webサイトのユーザーアクティビティ、金融取引、クレジットカードスワイプ、クリックストリームなどのデータソースからの連続ストリームとして読み取られます。 Stream Processingフレームワークは、大量の受信データを読み取ることができます。

この講師主導のライブトレーニング(オンサイトまたはリモート)では、参加者はさまざまなStream Processingフレームワークを設定し、既存のビッグデータストレージシステムおよび関連するソフトウェアアプリケーションとマイクロサービスを統合する方法を学びます。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Spark StreamingやKafka StreamingなどのさまざまなStream Processingフレームワークをインストールして設定します。
- 仕事に最も適した枠組みを理解し選択する。
- 連続的に、同時に、そしてレコードごとの方法でデータを処理します。
- Stream Processingソリューションを既存のデータベース、データウェアハウス、データレーキなどと統合する
- 最も適切なストリーム処理ライブラリをエンタープライズアプリケーションおよびマイクロサービスと統合します。

観客

- 開発者
- ソフトウェアアーキテクト

コースの 形式

- パートレクチャー、パートディスカッション、エクササイズ、そして激しい実習

ノート

- このコースのためのカスタマイズされたトレーニングを要求するには、手配するために私達に連絡してください。
14 時間
概要
Magellanは、ビッグデータの地理空間分析のためのオープンソースの分散実行エンジンです。 Apache Spark上に実装され、Spark SQLを拡張し、地理空間分析のリレーショナル抽象化を提供します。

このインストラクター主導のライブトレーニングでは、地理空間分析を実装するための概念とアプローチを紹介し、SparkでMagellanを使用して予測分析アプリケーションを作成する方法を説明します。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- 大規模な地理空間データセットの効率的なクエリ、解析、結合
- ビジネスインテリジェンスおよび予測分析アプリケーションで地理空間データを実装する
- 空間コンテキストを使用して、モバイルデバイス、センサー、ログ、ウェアラブルの機能を拡張します

コースの形式

- インタラクティブな講義とディスカッション。
- たくさんの練習と練習。
- ライブラボ環境での実践的な実装。

コースのカスタマイズオプション

- このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
21 時間
概要
Apache Sparkの学習曲線は最初はゆっくりと増加しています。最初のリターンを得るには多大な努力が必要です。このコースは、最初の難しい部分を飛び越えることを目的としています。このコースを受講した後、参加者はApache Sparkの基礎を理解し、RDDとDataFrameを明確に区別し、 PythonとScala APIを学習し、エグゼキューターとタスクなどを理解します。ベストプラクティスに従って、このコースはクラウド展開、Databricks、AWS。また、学生はAWS EMRとAWSの最新のSparkサービスの1つであるAWS Glueの違いを理解します。

聴衆:

データエンジニア、 DevOps 、データサイエンティスト
21 時間
概要
目的:

このコースではApache Sparkを紹介します。生徒は、SparkがBig Dataエコシステムにどのように適合するか、およびデータ分析にSparkを使用する方法を学びます。このコースでは、インタラクティブなデータ分析用のSparkシェル、Spark内部、Spark API、Spark SQL 、Sparkストリーミング、機械学習およびgraphXを扱います。

聴衆:

開発者/データアナリスト
21 時間
概要
Pythonはその明確な構文とコードの読みやすさで有名な高水準プログラミング言語です。 Sparkは、ビッグデータのクエリ、分析、および変換に使用されるデータ処理エンジンです。 PySparkは、ユーザーがSparkとPythonをインターフェースすることを可能にします。

このインストラクター主導のライブトレーニングでは、参加者はPythonとSparkを併用してビッグデータを分析し、実践的な演習を行う方法を学びます。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Python Sparkを使用してBig Dataを分析する方法を学びましょう。
- 現実の世界の状況を模した演習に取り組む。
- PySparkを使用したビッグデータ分析には、さまざまなツールや技法を使用してPySpark 。

コースの形式

- パートレクチャー、パートディスカッション、エクササイズ、そして激しい実習
21 時間
概要
Scalaは、大規模な機能的およびオブジェクト指向プログラミングのためのJava凝縮バージョンです。 Apache Spark Streamingは、ビッグデータセットをリアルタイムストリームとして処理するためのSpark APIの拡張コンポーネントです。 Spark StreamingとScala組み合わせることで、ビッグデータのストリーミングが可能になります。

このインストラクター主導のライブトレーニング(オンサイトまたはリモート)は、Spark StreamingおよびScalaビッグデータをストリーミングしたいソフトウェアエンジニアを対象としています。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Scalaプログラミング言語でSparkアプリケーションを作成します。
- Spark Streamingを使用して、データの連続ストリームを処理します。
- Spark Streamingでリアルタイムデータのストリームを処理します。

コースの形式

- インタラクティブな講義とディスカッション。
- たくさんの練習と練習。
- ライブラボ環境での実践的な実装。

コースのカスタマイズオプション

- このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
7 時間
概要
Spark SQLは、構造化データと非構造化データを扱うためのApache Sparkのモジュールです。 Spark SQLはデータの構造と実行されている計算に関する情報を提供します。この情報は最適化を実行するために使用できます。 Spark SQL一般的な用途は2つありSQL 。
- SQLクエリを実行しSQL 。
- 既存のHiveインストールからデータを読み取る。

この講師主導のライブトレーニング(オンサイトまたはリモート)では、参加者はSpark SQLを使用してさまざまな種類のデータセットを分析する方法を学習しSQL 。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Spark SQLをインストールして設定しSQL 。
- Spark SQLを使用してデータ分析を実行しSQL 。
- さまざまな形式でデータセットをクエリします。
- データを視覚化し、結果を問い合わせます。

コースの形式

- インタラクティブな講演と討論
- たくさんの練習と練習。
- 実習ラボ環境での実践的な実装。

コースのカスタマイズオプション

- このコースのためのカスタマイズされたトレーニングを要求するには、手配するために私達に連絡してください。
35 時間
概要
MLlibはSparkの機械学習(ML)ライブラリです。その目標は、実用的な機械学習をスケーラブルかつ簡単にすることです。これは、分類、回帰、クラスタリング、協調フィルタリング、次元削減、低レベルの最適化プリミティブ、高レベルのパイプラインAPIなど、一般的な学習アルゴリズムとユーティリティで構成されています。

これは2つのパッケージに分けられます。

-

spark.mllibには、RDDの上に構築されたオリジナルのAPIが含まれています。

-

spark.mlは、MLパイプラインを構築するためのDataFrameの上に構築された高レベルAPIを提供します。

観客

このコースは、 Apache Spark用の組み込みMachine Libraryを利用しようとしているエンジニアや開発者を対象としています。
週末Sparkコース, 夜のApache Sparkトレーニング, Sparkブートキャンプ, Spark インストラクターよる, 週末Sparkトレーニング, 夜のApache Sparkコース, Apache Spark指導, Sparkインストラクター, Apache Sparkレーナー, Apache Sparkレーナーコース, Sparkクラス, Sparkオンサイト, Sparkプライベートコース, Spark1対1のトレーニング

コースプロモーション

一部のお客様

is growing fast!

We are looking to expand our presence in Japan!

As a Business Development Manager you will:

  • expand business in Japan
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!