Apache Sparkのトレーニングコース

Apache Sparkのトレーニングコース

地元の講師主導のApache Sparkの実習コースは、SparkがBig Dataエコシステムにどのように適合しているか、そしてデータ分析にSparkを使用する方法を実践的に実践しています。 Apache Sparkのトレーニングは、「オンサイトライブトレーニング」または「リモートライブトレーニング」として利用できます。現場での現場でのトレーニングは、 日本 NobleProgの企業研修センターで日本 。リモートライブトレーニングは、インタラクティブなリモートデスクトップを介して実行されます。 NobleProg - あなたの地域のトレーニングプロバイダー

Machine Translated

お客様の声

★★★★★
★★★★★

Sparkサブカテゴリ

Apache Sparkコース概要

コース名
期間
概要
コース名
期間
概要
21 時間
Pythonは、データ科学および機械学習のためのスケール可能で柔軟で広く使用されるプログラミング言語です。 Spark は、大規模なデータの検索、分析、変換に使用されるデータ処理エンジンであり、 Hadoop は、大規模なデータの保存および処理のためのソフトウェア図書館フレームワークです。

このインストラクターによるライブトレーニング(オンラインまたはオンライン)は、Spark、0、および1を使用して統合し、大規模かつ複雑なデータセットを処理し、分析し、変換したい開発者に向けられています。

このトレーニングの終了後、参加者は:

大型データの処理をSpark、0、および1で開始するために必要な環境を設定します。 特性、コアコンポーネント、およびSparkのアーキテクチャを理解する Hadoop. Spark, Hadoop, and Python for big data processing を統合する方法を学びます。 スパークのエコシステム(Spark MlLib、4、Kafka、Sqoop、Kafka、Flume)のツールを探索する。 (3)、YouTube、Amazon、Spotify、および Googleに似た協力フィルタリング推奨システムを構築します。 Apache Mahout を使用して、機械学習アルゴリズムをスケールします。

コースの形式

インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装

コースカスタマイズオプション

このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
21 時間
In this instructor-led, live training in 日本, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises.

By the end of this training, participants will be able to:

- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
21 時間
目的:

このコースではApache Sparkを紹介します。生徒は、SparkがBig Dataエコシステムにどのように適合するか、およびデータ分析にSparkを使用する方法を学びます。このコースでは、インタラクティブなデータ分析用のSparkシェル、Spark内部、Spark API、Spark SQL 、Sparkストリーミング、機械学習およびgraphXを扱います。

聴衆:

開発者/データアナリスト
21 時間
Hortonworks Data Platform (HDP)は、Apache Hadoopエコシステムでビッグデータソリューションを開発するための安定した基盤を提供するオープンソースのApache Hadoopサポートプラットフォームです。

このインストラクター主導のライブトレーニング(オンサイトまたはリモート)は、 Hortonworks Data Platform (HDP)を紹介し、参加者にSpark + Hadoopソリューションの展開を説明します。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Hortonworksを使用して、 Hadoopを大規模に確実に実行します。
- Sparkのアジャイル分析ワークフローでHadoopのセキュリティ、ガバナンス、運用機能を統合します。
- Hortonworksを使用して、Sparkプロジェクトの各コンポーネントを調査、検証、認定、サポートします。
- 構造化、非構造化、移動中、保存中など、さまざまなタイプのデータを処理します。

コースの形式

- インタラクティブな講義とディスカッション。
- たくさんの練習と練習。
- ライブラボ環境での実践的な実装。

コースのカスタマイズオプション

- このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
14 時間
マゲランは、ビッグデータの地宇宙分析のためのオープンソース配布実行エンジンです。 Apache Sparkの上に実施され、Spark SQLを拡張し、地宇宙分析のための相対的な抽象を提供します。

このインストラクター指導のライブトレーニングは、地質空間分析を実施するための概念とアプローチを紹介し、Spark上のMagellanを使用して予測分析アプリケーションを作成することによって参加者を歩きます。

このトレーニングの終了後、参加者は:

効率的に検索、パルス、およびスケールで地宇宙データセットに加わる ビジネスインテリジェンスおよび予測分析アプリケーションにおける地宇宙データの実施 スペースコンテキストを使用して、モバイルデバイス、センサー、ロゴ、および携帯容器の機能を拡大します。

コースの形式

インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装

コースカスタマイズオプション

このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
7 時間
Alluxioは、異なるストレージシステムを統合し、アプリケーションがメモリ速度でデータと相互作用することを可能にするオープンソースの仮想配布ストレージシステムです。 インテル、バイドゥ、アリババなどの企業によって使用されています。

このインストラクターによって導かれたライブトレーニングでは、参加者は Alluxio によって異なる計算フレームワークをストレージシステムとブリッジする方法を学び、マルチペタバイトスケールデータを効率的に管理する方法を学びます。

このトレーニングの終了後、参加者は:

アプリケーションを開発する Alluxio 大型データシステムとアプリケーションを接続し、単一の名称スペースを保存 すべてのストレージ形式でビッグデータから効率的に価値を抽出する 作業負荷のパフォーマンスの向上 配布・管理 Alluxio 単独または集団

観客

データ科学者 開発者 システム管理者

コースの形式

部分講義、部分議論、練習、重い実践
7 時間
Spark SQLは、構造化データと非構造化データを扱うためのApache Sparkのモジュールです。 Spark SQLはデータの構造と実行されている計算に関する情報を提供します。この情報は最適化を実行するために使用できます。 Spark SQL一般的な用途は2つありSQL 。
- SQLクエリを実行しSQL 。
- 既存のHiveインストールからデータを読み取る。

この講師主導のライブトレーニング(オンサイトまたはリモート)では、参加者はSpark SQLを使用してさまざまな種類のデータセットを分析する方法を学習しSQL 。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Spark SQLをインストールして設定しSQL 。
- Spark SQLを使用してデータ分析を実行しSQL 。
- さまざまな形式でデータセットをクエリします。
- データを視覚化し、結果を問い合わせます。

コースの形式

- インタラクティブな講演と討論
- たくさんの練習と練習。
- 実習ラボ環境での実践的な実装。

コースのカスタマイズオプション

- このコースのためのカスタマイズされたトレーニングを要求するには、手配するために私達に連絡してください。
21 時間
Stream Processingとは、「移動中のデータ」のリアルタイム処理、つまり受信中のデータに対して計算を実行することです。このようなデータは、センサーイベント、Webサイトのユーザーアクティビティ、金融取引、クレジットカードスワイプ、クリックストリームなどのデータソースからの連続ストリームとして読み取られます。 Stream Processingフレームワークは、大量の受信データを読み取ることができます。

この講師主導のライブトレーニング(オンサイトまたはリモート)では、参加者はさまざまなStream Processingフレームワークを設定し、既存のビッグデータストレージシステムおよび関連するソフトウェアアプリケーションとマイクロサービスを統合する方法を学びます。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Spark StreamingやKafka StreamingなどのさまざまなStream Processingフレームワークをインストールして設定します。
- 仕事に最も適した枠組みを理解し選択する。
- 連続的に、同時に、そしてレコードごとの方法でデータを処理します。
- Stream Processingソリューションを既存のデータベース、データウェアハウス、データレーキなどと統合する
- 最も適切なストリーム処理ライブラリをエンタープライズアプリケーションおよびマイクロサービスと統合します。

観客

- 開発者
- ソフトウェアアーキテクト

コースの 形式

- パートレクチャー、パートディスカッション、エクササイズ、そして激しい実習

ノート

- このコースのためのカスタマイズされたトレーニングを要求するには、手配するために私達に連絡してください。
21 時間
ビッグデータ分析では、相関関係、隠れたパターン、およびその他の有用な洞察を明らかにするために、大量のさまざまなデータセットを調べるプロセスが含まれます。

健康産業には、大量の複雑で異種の医療および臨床データがあります。医療データにビッグデータ分析を適用することは、医療の提供を改善するための洞察を引き出す大きな可能性を提示します。しかしながら、これらのデータセットの膨大さは、分析および臨床環境への実用化において大きな課題を投げかけている。

このインストラクター主導のライブトレーニング(リモート)では、参加者は一連の実践的なラボ実習を順を追って進めながら、ビッグデータ分析を健康のために実行する方法を学びます。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Hadoop MapReduceやSparkなどのビッグデータ分析ツールをインストールして設定する
- 医療データの特徴を理解する
- 医療データを扱うためにビッグデータ技術を適用する
- 健康応用の文脈でビッグデータシステムとアルゴリズムを研究する

観客

- 開発者
- データ科学者

コースの形式

- パートレクチャー、パートディスカッション、エクササイズ、そして実地練習。

注意

- このコースのためのカスタマイズされたトレーニングを要求するには、手配するために私達に連絡してください。
21 時間
Apache Sparkの学習曲線は最初はゆっくりと増加しています。最初のリターンを得るには多大な努力が必要です。このコースは、最初の難しい部分を飛び越えることを目的としています。このコースを受講した後、参加者はApache Sparkの基礎を理解し、RDDとDataFrameを明確に区別し、 PythonとScala APIを学習し、エグゼキューターとタスクなどを理解します。ベストプラクティスに従って、このコースはクラウド展開、Databricks、AWS。また、学生はAWS EMRとAWSの最新のSparkサービスの1つであるAWS Glueの違いを理解します。

聴衆:

データエンジニア、 DevOps 、データサイエンティスト
21 時間
Scalaは、大規模な機能的およびオブジェクト指向プログラミングのためのJava凝縮バージョンです。 Apache Spark Streamingは、ビッグデータセットをリアルタイムストリームとして処理するためのSpark APIの拡張コンポーネントです。 Spark StreamingとScala組み合わせることで、ビッグデータのストリーミングが可能になります。

このインストラクター主導のライブトレーニング(オンサイトまたはリモート)は、Spark StreamingおよびScalaビッグデータをストリーミングしたいソフトウェアエンジニアを対象としています。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- Scalaプログラミング言語でSparkアプリケーションを作成します。
- Spark Streamingを使用して、データの連続ストリームを処理します。
- Spark Streamingでリアルタイムデータのストリームを処理します。

コースの形式

- インタラクティブな講義とディスカッション。
- たくさんの練習と練習。
- ライブラボ環境での実践的な実装。

コースのカスタマイズオプション

- このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
14 時間
SMACK は、データプラットフォームソフトウェアのコレクション、すなわち Apache Spark、 Apache Mesos、 Apache Akka、 Apache Cassandra、および Apache Kafka。 SMACK スタックを使用すると、ユーザーはデータ処理プラットフォームを作成し、スケールすることができます。

このインストラクター指導、ライブトレーニング(オンラインまたはオンライン)は、大データソリューションのデータ処理プラットフォームを構築するためにSMACKスタックを使用したいデータ科学者に向けられています。

このトレーニングの終了後、参加者は:

大型データ処理のためのデータパイプラインアーキテクチャを実施します。 クラスターインフラを開発する(6)と(1)。 Spark とデータを分析する Scala。 Apache Cassandra で構造化されていないデータを管理する。

コースの形式

インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装

コースカスタマイズオプション

このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
21 時間
Apache Sparkは、データをクラスターを通じて分散させ、並行で処理するように設計された分析エンジンです。 ストリーミングのためのモジュール(1)、機械学習およびグラフ処理が含まれています。

このインストラクターによるライブトレーニング(オンラインまたはオンライン)は、非常に大量のデータを処理するためのシステムを導入したいエンジニアに向けられています。

このトレーニングの終了後、参加者は:

インストール・インストール(2) 〔2〕と〔0〕の間の違いを理解し、どのように使用するかを理解する。 迅速に読み、非常に大きなデータセットを分析します。 (2)他の機械学習ツールと統合する。

コースの形式

インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装

コースカスタマイズオプション

このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
21 時間
Apache Sparkは、非常に大きなデータセットを分析するための分散処理エンジンです。 それはバッチやリアルタイムでデータを処理し、機械学習、広告ホックのリクエスト、グラフ処理を実行することができます。 .NET for Apache Spark は、無料、オープンソース、およびプラットフォーム間のビッグデータ分析フレームワークで、アプリケーションをサポートしています。

このインストラクターによるライブトレーニング(オンラインまたはオンライン)は、.NET アプリケーションで大きなデータ分析を実行したい開発者に向けられています。

このトレーニングの終了後、参加者は:

インストール・インストール(1) .NET が Spark API を実施する方法を理解して、.NET アプリケーションからアクセスできます。 データ処理アプリケーションを開発する C# または F# を使用して、データセットを処理することができ、そのサイズはテラビットおよびペダビットで測定されます。 機械学習機能を開発する.NET アプリケーションは Apache Spark 機能を使用します。 ビッグデータセットで SQL リクエストを使用して探検分析を実行します。

コースの形式

インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装

コースカスタマイズオプション

このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
35 時間
Apache Hadoop は、多くのコンピュータを通じて大規模なデータセットを処理するための人気のあるデータ処理フレームワークです。

このインストラクター指導、ライブトレーニング(オンラインまたはオンライン)は、組織内でクラスターを構築、配置、管理する方法を学びたいシステム管理者に向けられています。

このトレーニングの終了後、参加者は:

Apacheをインストールして設定する(0) エコシステムの4つの主要な要素を理解する:HDFS、MapReduce、YARN、および0 Common。 Hadoop 分散ファイルシステム(HDFS)を使用してクラスターを数百または数千のノードにスケールします。 ■ HDFS を設定して、オンプレミス スパーク デロイメントのためのストレージ エンジンとして動作します。 Spark を設定して、Amazon S3 および NoSQL データベース システムなどの代替ストレージ ソリューションにアクセスできます。 Apache Hadoop クラスターの提供、管理、監視、セキュリティなどの行政課題を実行する。

コースの形式

インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装

コースカスタマイズオプション

このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
14 時間
This instructor-led, live training in 日本 (online or onsite) is aimed at data scientists and developers who wish to use Spark NLP, built on top of Apache Spark, to develop, implement, and scale natural language text processing models and pipelines.

By the end of this training, participants will be able to:

- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
35 時間
MLlibはSparkの機械学習(ML)ライブラリです。その目標は、実用的な機械学習をスケーラブルかつ簡単にすることです。これは、分類、回帰、クラスタリング、協調フィルタリング、次元削減、低レベルの最適化プリミティブ、高レベルのパイプラインAPIなど、一般的な学習アルゴリズムとユーティリティで構成されています。

これは2つのパッケージに分けられます。

-

spark.mllibには、RDDの上に構築されたオリジナルのAPIが含まれています。

-

spark.mlは、MLパイプラインを構築するためのDataFrameの上に構築された高レベルAPIを提供します。

観客

このコースは、 Apache Spark用の組み込みMachine Libraryを利用しようとしているエンジニアや開発者を対象としています。
21 時間
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
28 時間
実世界の多くの問題はグラフで説明できます。たとえば、Webグラフ、ソーシャルネットワークグラフ、電車ネットワークグラフ、言語グラフなどです。これらのグラフは非常に大きくなる傾向があります。それらを処理するには、特殊なツールとプロセスのセットが必要です。これらのツールとプロセスは、 Graph Computing (Graph Analyticsとも呼ばれます)と呼ぶことができます。

この講師主導のライブトレーニングでは、参加者は、グラフデータを処理するためのテクノロジの提供および実装方法について学習します。目的は、実世界のオブジェクト、それらの特性および関係を識別し、次にこれらの関係をモデル化し、 Graph Computing (Graph Analyticsとも呼ばれる)アプローチを使用してデータとして処理することです。一連のケーススタディ、実践的な演習、および実際の展開を順を追って進める中で、まず概要を概説し、特定のツールを絞り込みます。

このトレーニングの終わりまでに、参加者は次のことができるようになります。

- グラフデータがどのように保持されトラバースされるのかを理解する。
- 特定のタスクに最適なフレームワークを選択します(グラフデータベースからバッチ処理フレームワークまで)。
- Hadoop 、Spark、 GraphX 、およびPregelを実装して、多数のマシンで並行してグラフコンピューティングを実行します。
- グラフ、プロセス、およびトラバースの観点から、実世界のビッグデータの問題を表示します。

コースの形式

- パートレクチャー、パートディスカッション、エクササイズ、そして激しい実習

Last Updated:

今後のApache Sparkコース

週末Sparkコース, 夜のApache Sparkトレーニング, Sparkブートキャンプ, Spark インストラクターよる, 週末Sparkトレーニング, 夜のApache Sparkコース, Apache Spark指導, Sparkインストラクター, Apache Sparkレーナー, Apache Sparkレーナーコース, Sparkクラス, Sparkオンサイト, Sparkプライベートコース, Spark1対1のトレーニング

コースプロモーション

コースディスカウントニュースレター

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

一部のお客様

is growing fast!

We are looking to expand our presence in Japan!

As a Country Manager you will:

  • manage business operations in Japan
  • develop a business development strategy
  • expand the team, promote the brand and widen our market share
  • take charge of Japan operations as country manager within the first year

Benefits:

  • work in an international team environment
  • exposure to modern and leading-edge technology
  • potential to develop the role as the business grows
  • chance to work in a flat, bureaucracy-free organizational hierarchy

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

This site in other countries/regions