ビッグデータのトレーニングコース | Big Dataのトレーニングコース

ビッグデータのトレーニングコース

現地のインストラクターによるライブビッグデータトレーニングコースは、ビッグデータの基本概念の紹介から始め、データ分析を実行するために使用されるプログラミング言語と方法論へと進んでいきます。ビッグデータストレージ、分散処理、およびスケーラビリティを実現するためのツールとインフラストラクチャについては、デモ演習セッションで説明し、比較し、実装します。ビッグデータトレーニングは、「オンサイトライブトレーニング」または「リモートライブトレーニング」として利用できます。現地でのトレーニングは、 NobleProg提携の企業研修センターで受講可能です。リモートライブトレーニングは、インタラクティブなリモートデスクトップを介して実行されます。

お客様の声

★★★★★
★★★★★

ビッグデータコース概要

コース名
期間
概要
コース名
期間
概要
21 時間
Pythonは、データ科学および機械学習のためのスケール可能で柔軟で広く使用されるプログラミング言語です。 Spark は、大規模なデータの検索、分析、変換に使用されるデータ処理エンジンであり、 Hadoop は、大規模なデータの保存および処理のためのソフトウェア図書館フレームワークです。 このインストラクターによるライブトレーニング(オンラインまたはオンライン)は、Spark、0、および1を使用して統合し、大規模かつ複雑なデータセットを処理し、分析し、変換したい開発者に向けられています。 このトレーニングの終了後、参加者は:
    大型データの処理をSpark、0、および1で開始するために必要な環境を設定します。 特性、コアコンポーネント、およびSparkのアーキテクチャを理解する Hadoop. Spark, Hadoop, and Python for big data processing を統合する方法を学びます。 スパークのエコシステム(Spark MlLib、4、Kafka、Sqoop、Kafka、Flume)のツールを探索する。 (3)、YouTube、Amazon、Spotify、および Googleに似た協力フィルタリング推奨システムを構築します。 Apache Mahout を使用して、機械学習アルゴリズムをスケールします。
コースの形式
    インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装
コースカスタマイズオプション
    このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
14 時間
Waikato Environment for Knowledge Analysis(0)は、オープンソースのデータ鉱業ビジュアル化ソフトウェアです。 データの準備、分類、クラスティング、およびその他のデータ採掘活動のための機械学習アルゴリズムのコレクションを提供します。 このインストラクター指導、ライブトレーニング(オンラインまたはオンライン)は、データ鉱業の課題を実行するために使用したいデータアナリストやデータ科学者に向けられています。 このトレーニングの終了後、参加者は:
    インストール・インストール(0) Weka環境とワークベンチを理解する。 データ採掘作業の実施 Weka
コースの形式
    インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装
コースカスタマイズオプション
    このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
14 時間
IBM SPSS Modelerは、データ採掘およびテキスト分析に使用されるソフトウェアです。 予測モデルを構築し、データ分析の課題を実行できるデータ鉱業ツールのセットを提供します。 このインストラクターによるライブトレーニング(オンラインまたはオンライン)は、データアナリストまたはデータ採掘活動を実施するために使用したい人は誰でも対象となります。 このトレーニングの終了後、参加者は:
    データ鉱業の基本を理解する。 モデレーターでデータの品質をインポートおよび評価する方法を学びます。 データモデルを効率的に開発、実装、評価する。
コースの形式
    インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装
コースカスタマイズオプション
    このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
35 時間
このインストラクターによるライブトレーニングを完了する参加者は、実践的で現実世界の理解(0)とその関連する技術、方法論、ツールを取得します。 参加者は、実践的な練習を通じてこの知識を実践する機会を得るでしょう。 グループインタラクションとインストラクターのフィードバックは、クラスの重要な要素です。 コースは、基本的なコンセプト(0)への導入で始まり、その後、実行するために使用されるプログラミング言語や方法論に進歩します。 最後に、私たちは Big Data ストレージ、分散処理、および Scala 容量を可能にするツールとインフラについて話し合います。 コースの形式
    部分講義、部分討論、実践と実施、時々進歩を測定するためのクイジング。
21 時間
Pythonはその明確な構文とコードの読みやすさで有名な高水準プログラミング言語です。 Sparkは、ビッグデータのクエリ、分析、および変換に使用されるデータ処理エンジンです。 PySparkは、ユーザーがSparkとPythonをインターフェースすることを可能にします。 このインストラクター主導のライブトレーニングでは、参加者はPythonとSparkを併用してビッグデータを分析し、実践的な演習を行う方法を学びます。 このトレーニングの終わりまでに、参加者は次のことができるようになります。
  • Python Sparkを使用してBig Dataを分析する方法を学びましょう。
  • 現実の世界の状況を模した演習に取り組む。
  • PySparkを使用したビッグデータ分析には、さまざまなツールや技法を使用してPySpark 。
コースの形式
  • パートレクチャー、パートディスカッション、エクササイズ、そして激しい実習
7 時間
このコースでは、使用する方法について説明Hive SQL言語を(AKA: Hive HQL、 SQL上のHive 、 Hive QL)からデータを抽出人々のためのHive
21 時間
データベースにおける知識発見(KDD)は、データの収集から有用な知識を発見するプロセスです。 このデータ鉱業技術のリアルライフアプリケーションには、マーケティング、詐欺検出、通信および製造が含まれています。 このインストラクター指導、ライブコースでは、KDDに関与するプロセスを紹介し、これらのプロセスの実施を実践するために一連の練習を実施します。 観客
    データアナリストまたは問題を解決するためにデータを解釈する方法を学ぶことに興味のある人
コースの形式
    KDDの理論的な議論の後、教師は、問題を解決するためにKDDの応用を求める現実のケースを紹介します。 参加者は、サンプルデータセットを準備、選択、清掃し、データに関する事前の知識を使用して、観察の結果に基づいてソリューションを提案します。
14 時間
Apache Kylinは、ビッグデータのための極端で分散分析エンジンです。 このインストラクターによるライブトレーニングでは、参加者はリアルタイムのデータストレージを設定するために使用する方法を学びます。 このトレーニングの終了後、参加者は:
    Kylin を使用してリアルタイムストリーミングデータを消費する 使用する Apache Kylin's 強力な機能, 豊かな SQL インターフェイス, スパーク クビング と サブセクンド リクエスト ラテンシー
ノート
    私たちはKylinの最新バージョンを使用しています(この文字に基づいて、 Apache Kylin v2.0)
観客
    大型データエンジニア 【アナリスト】
コースの形式
    部分講義、部分議論、練習、重い実践
14 時間
Datameer は、Hadoop 上に構築されたビジネスインテリジェンスおよびアナリティクスプラットフォームです。これにより、エンドユーザーは、使いやすい方法で、大規模な構造化された半構造化データと非構造化情報にアクセスし、探索し、関連づけることができます。 このインストラクター主導のライブトレーニングでは、Datameer を使用して Hadoop & #39 を克服する方法について学習し、一連のビッグデータソースのセットアップと分析を段階的に実行します。 このトレーニングの終わりまでに、参加者は次のことができるようになります:
  • エンタープライズデータを作成、バーテン、対話的に探索する
  • アクセスビジネスインテリジェンスデータウェアハウス、トランザクションデータベース、およびその他の分析ストア
  • エンドツーエンドのデータ処理パイプラインを設計するには、スプレッドシートのユーザーインターフェイスを使用します
  • アクセス事前に構築された関数は、複雑なデータの関係を探るために
  • ドラッグアンドドロップウィザードを使用してデータを視覚化し、ダッシュボードを作成する
  • テーブル、グラフ、グラフ、およびマップを使用してクエリ結果を分析する
観客
  • データアナリスト
コース の 形式
  • 部講義、パート討論、演習と重い実地練習
14 時間
データマイニングは、機械学習などのデータサイエンス手法を使用してビッグデータのパターンを識別するプロセスです。 Excelをデータ分析スイートとして使用すると、ユーザーはデータマイニングと分析を実行できます。 このインストラクター主導のライブトレーニング(オンサイトまたはリモート)は、データマイニングにExcelを使用したいデータサイエンティストを対象としています。 このトレーニングが終了すると、参加者は次のことができるようになります。
  • Excelデータを探索して、データマイニングと分析を実行します。
  • データマイニングにMicrosoftアルゴリズムを使用します。
  • Excelデータマイニングの概念を理解する。
コースの形式
  • インタラクティブな講義とディスカッション。
  • たくさんの練習と練習。
  • ライブラボ環境での実践的な実装。
コースのカスタマイズオプション
  • このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
21 時間
Dremioはオープンソース"自己サービスデータプラットフォーム"で、さまざまな種類のデータソースのリクエストを加速します。 Dremio 相対データベース、Apache Hadoop, MongoDB、Amazon S3、ElasticSearch、およびその他のデータソースと統合します。 サポート SQL と構築 リクエストのための Web UI を提供します。 このインストラクターによるライブトレーニングでは、参加者はデータ分析ツールと基礎データリポジトリの統合層としてインストール、設定、使用する方法を学びます。 このトレーニングの終了後、参加者は:
    インストール・インストール(7) 場所、サイズ、または構造に関係なく、複数のデータソースに対するリクエストを実行 統合する Dremio と BI と データ ソース のような Tableau と Elasticsearch
観客
    データ科学者 (4)アナリスト データエンジニア
コースの形式
    部分講義、部分議論、練習、重い実践
ノート
    このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
21 時間
Apache ドリルは、Hadoop、NoSQL、およびその他のクラウドおよびファイルストレージシステム用の、スキーマを持たない、分散した、メモリ内の柱状の SQL クエリエンジンです。Apache ドリルの威力は、単一のクエリを使用して複数のデータストアからデータを結合できることです。Apache ドリルは、HBase、MongoDB、MapR、HDFS、MapR、Amazon S3、Azure Blob ストレージ、Google クラウドストレージ、Swift、NAS、ローカルファイルなど、数多くの NoSQL データベースとファイルシステムをサポートしています。Apache ドリルは google BigQuery と呼ばれるインフラサービスとして利用可能なグーグル & #39 の Dremel システムのオープンソースバージョンです。 このインストラクター主導のライブトレーニングでは、参加者は Apache ドリルの基礎を学び、SQL のパワーと利便性を活用して、コードを記述することなく、複数のデータソース間で大きなデータを対話的に照会することができます。参加者は、分散 SQL 実行のドリルクエリを最適化する方法についても学習します。 このトレーニングの終わりまでに、参加者は次のことができるようになります:
  • は、Hadoop
  • 上の構造化および半構造化データに "セルフサービス" 探査を実行します。
  • クエリは、SQL クエリを使用して不明なデータと同様に知られて
  • は、Apache ドリルがどのようにクエリを受け取り、実行するかを理解する
  • は、Hive の構造化データ、HBase または MapR テーブルの半構造化データ、寄木細工や JSON などのファイルに保存されたデータなど、さまざまな種類のデータを分析するための SQL クエリを作成します。
  • は Apache ドリルを使用して、複雑な ETL およびスキーマ操作の必要性をバイパスして、オンザフライのスキーマ検出を実行し
  • は、Tableau、Qlikview、MicroStrategy、エクセルなどの BI (ビジネスインテリジェンス) ツールを使用して Apache ドリルを統合し
観客
  • データアナリスト
  • データサイエンティスト
  • SQL プログラマ
コース の 形式
  • 部講義、パート討論、演習と重い実地練習
14 時間
Apache Arrowは、オープンソースのメモリ内データ処理フレームワークです。多くの場合、分析のために異なるデータストアにアクセスするために、他のデータサイエンスツールと一緒に使用されます。 GPUデータベース、機械学習ライブラリとツール、実行エンジン、データ視覚化フレームワークなどの他のテクノロジーとうまく統合します。 このオンサイトインストラクター主導のライブトレーニングでは、参加者は、 Apache ArrowをさまざまなData Scienceフレームワークと統合して、異なるデータソースのデータにアクセスする方法を学習します。 このトレーニングの終わりまでに、参加者は次のことができるようになります。
  • 分散クラスター環境でのApache Arrowインストールと構成
  • Apache Arrowを使用して、異なるデータソースのデータにアクセスする
  • Apache Arrowを使用して、複雑なETLパイプラインを構築および維持する必要を回避します
  • 一元化されたリポジトリにデータを統合することなく、異種のデータソース全体でデータを分析します
聴衆
  • データサイエンティスト
  • データエンジニア
コースの 形式
  • 一部の講義、一部のディスカッション、演習、および実践的な実践
注意
  • このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
14 時間
このコースの目的は、中級レベルでデータを抽出するために、 OracleデータベースでSQL言語をOracleする方法を習得できるようにすることです。
14 時間
規制当局のコンプライアンスを満たすために、CSP( Communicationサービスプロバイダ)はビッグデータ分析を活用して、コンプライアンスの達成を支援するだけでなく、同じプロジェクトの範囲内で顧客満足度を高め、それにより解約を減らすことができます。実際、コンプライアンスは契約に結び付けられたサービスの質に関連しているため、コンプライアンスを満たすためのあらゆるイニシアチブはCSPの「競争力」を向上させます。したがって、規制当局は、規制当局とCSPの間で相互に利益をもたらすことになる、CSPのための一連のBig Data分析慣行を助言/指導することができるべきであることが重要です。 コースは8つのモジュールで構成されています(1日目に4つ、2日目に4つ)
35 時間
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
35 時間
1日目 - 重要なBig Dataトピック分野の概要を説明します。このモジュールは一連のセクションに分かれており、各セクションには実践的な演習が付いています。 2日目 - Big Data環境の分析手法とツールに関連するさまざまなトピックを探ります。実装やプログラミングの詳細には触れませんが、代わりに、参加者がBig Dataソリューションによって提供される一般的な分析機能と機能についての包括的な理解を深めることができるトピックに焦点を合わせて、概念レベルでカバレッジを保ちます。 3日目 - Big Dataソリューションプラットフォームアーキテクチャに関連する基本的および本質的なトピック領域の概要を説明します。 Big Dataソリューションプラットフォームの開発に必要なBig Dataメカニズムと、データ処理プラットフォームを組み立てるためのアーキテクチャ上のオプションについて説明します。 Big Dataソリューションプラットフォームの一般的な使用方法についての基本的な理解を深めるために、一般的なシナリオも提示されています。 4日目 - 3日目には、 Big Dataソリューションプラットフォームアーキテクチャに関連する高度なトピックを探ります。特に、データソース、データ入力、データストレージ、データ処理、セキュリティなど、 Big Dataソリューションプラットフォームを構成するさまざまなアーキテクチャ層について紹介し、説明します。 5日目 - 3日目と4日目にカバーされたトピックの知識を適用する代表者の能力をテストするために設計されたいくつかの演習と問題をカバーします。
35 時間
技術の進歩と情報量の増加は、法執行の実施方法を変えています。課題Big Dataもたらすは同じくらい手ごわいあるBig Dataの約束。データを効率的に保存することは、これらの課題の1つです。それを効果的に分析することは別です。 このインストラクター主導のライブトレーニングでは、参加者は、 Big Dataテクノロジーにアプローチするための考え方を学び、既存のプロセスとポリシーへの影響を評価し、犯罪行為を特定して犯罪を防止する目的でこれらのテクノロジーを実装します。世界中の法執行機関のケーススタディを調査し、採用アプローチ、課題、結果に関する洞察を獲得します。 このトレーニングの終わりまでに、参加者は次のことができるようになります。
  • Big Dataテクノロジーと従来のデータ収集プロセスを組み合わせて、調査中にストーリーをまとめる
  • データ分析用の産業用ビッグデータストレージおよび処理ソリューションを実装する
  • 犯罪捜査へのデータ駆動型アプローチを可能にするための最も適切なツールとプロセスの採用に関する提案を準備する
聴衆
  • 技術的背景を持つ法執行機関のスペシャリスト
コースの形式
  • 一部の講義、一部のディスカッション、演習、および実践的な実践
14 時間
目的 :このトレーニングコースは、 Big Dataが私たちの生活を変えている理由、そしてビジネスが私たちを消費者と見なす方法をどのように変えているかを参加者に理解させることを目的としています。実際、ビジネスでビッグデータを使用しているユーザーは、ビッグデータによって、利益の増加、コストの削減、およびリスクの軽減につながる豊富な情報と洞察が得られることがわかります。しかし、個々のテクノロジに重点を置きすぎ、ビッグデータ管理の柱に十分に焦点を当てていない場合、不利な点が時々あります。 このコースでは、ビッグデータを実際のビジネス価値に変えるために、データ統合、データガバナンス、およびデータセキュリティの3つの柱を使用してビッグデータを管理する方法を参加者が学びます。顧客管理のケーススタディで行われたさまざまな演習は、参加者が基礎となるプロセスをよりよく理解するのに役立ちます。
21 時間
Big Dataは、大規模データセットの保存と処理を目的としたソリューションを指す用語です。 Go ogleによって最初に開発されたこれらのBig Dataソリューションは、他の同様のプロジェクトを発展させ、それらを奮い立たせました。それらの多くはオープンソースとして利用可能です。 Rは金融業界で人気のあるプログラミング言語です。
14 時間
従来のストレージテクノロジでは、格納する必要があるデータ量を処理できない場合、代替手段が捜し出されます。このコースでは、 Big Dataを保存および分析するための代替手段と、その長所と短所について説明します。 このコースは主にソリューションの議論と発表に焦点を当てていますが、実地演習もオンデマンドで利用できます。
14 時間
コースは、データサイエンティストスキルセット(ドメイン:データと技術)の一部です。
14 時間
This classroom based training session will explore Big Data. Delegates will have computer based examples and case study exercises to undertake with relevant big data tools
21 時間
観客あなたがアクセスできるデータから意味を成し遂げようとしたり、ネット上で利用可能な非構造化データ(Twitter、Linked inなど)を分析したいのであれば、このコースはあなたのためです。 これは主に意思決定者や、収集する価値のあるデータと分析する価値のあるデータを選択する必要がある人を対象としています。 それはソリューションを構成する人々を対象としていません、それらの人々はしかし全体像から利益を得るでしょう。 配送モードコース期間中、参加者には主にオープンソース技術の実用的な例が提示されます。 短い講義の後、参加者による発表と簡単な演習が行われます。 使用されているコンテンツとソフトウェア使用されるすべてのソフトウェアはコースが実行されるたびに更新されるので、私たちは可能な限り最新のバージョンをチェックします。 機械学習を使用して意思決定プロセスを自動化する方法を説明するために、データの取得、フォーマット、処理、および分析からのプロセスについて説明します。
35 時間
ビッグデータは非常に膨大で複雑なデータセットであるため、従来のデータ処理アプリケーションソフトウェアでは処理できません。ビッグデータの課題には、データのキャプチャ、データストレージ、データ分析、検索、共有、転送、視覚化、クエリ、更新、および情報のプライバシーが含まれます。
7 時間
このインストラクター主導のライブトレーニング(オンサイトまたはリモート)は、ビッグデータを最大限に活用しながら機械学習戦略を実装する方法を学びたい技術者を対象としています。 このトレーニングの終わりまでに、参加者は以下のことを行います。
  • 機械学習の進化と傾向を理解する
  • 機械学習がさまざまな業界でどのように使用されているかを知ってください。
  • 組織内で機械学習を実装するために利用できるツール、スキル、およびサービスに精通してください。
  • データマイニングと分析を強化するために機械学習をどのように使用できるかを理解します。
  • データミドルバックエンドとは何か、そしてそれが企業によってどのように使用されているかを学びましょう。
  • ビッグデータとインテリジェントアプリケーションが業界全体で果たしている役割を理解します。
コースの形式
  • インタラクティブな講演と討論
  • たくさんの練習と練習。
  • ライブラボ環境での実践的な実装。
コースのカスタマイズオプション
  • このコースのためのカスタマイズされたトレーニングを要求するには、手配するために私達に連絡してください。
7 時間
Apache Sqoop は、リレーショナル データベースやHadoopからデータを移動するためのコマンドラインインターフェイスです。Apache Flumeは、ビッグデータを管理するための分散ソフトウェアです。Sqoop と Flume を使用すると、システム間でデータを転送し、ビッグ データを Hadoopなどのストレージ アーキテクチャにインポートできます。 このインストラクター主導のライブトレーニング(オンサイトまたはリモート)は、システム間でデータを転送するためにSqoopとFlumeを使用したいソフトウェアエンジニアを対象としています。 このトレーニングの終了までに、参加者は以下の情報を得られます。
  • SqoopとFlumeでビッグデータを取り込む。
  • 複数のデータ ソースからデータを取り込む。
  • リレーショナル データベースから HDFS および Hiveにデータを移動する 。
  • HDFS からリレーショナル データベースにデータをエクスポートします。
コースの形式
  • インタラクティブな講義とディスカッション。
  • 練習や練習の多く。
  • ライブ ラボ環境でのハンズオン実装。
コースのカスタマイズ オプション
  • このコースのカスタマイズされたトレーニングをリクエストするには、お問い合わせください。
28 時間
Talend Open Studio for Big Data は、大きなデータを処理するためのオープンソース ETL ツールです。 それは、ソースやターゲットと相互作用する開発環境を含み、コードを書く必要もなく仕事を実行します。 このインストラクター指導のライブトレーニング(オンラインまたはオンライン)は、オープンスタジオ(オープンスタジオ)を開発することを望む技術者に向けられており、読書とクラッシュのプロセスを簡素化するために、オープンスタジオ(オープンスタジオ)を開発します。 このトレーニングの終了後、参加者は:
    インストールして設定する Talend Open Studio for Big Data. Cloudera、HortonWorks、MapR、Amazon EMR、Apacheなどのシステムに接続します。 Open Studioのビッグデータコンポーネントとコネクターを理解し、設定します。 パラメーターを設定して、MapReduce コードを自動的に生成します。 Open Studio's drag-and-drop インターフェイスを使用して仕事を実行します。 大型データパイプのプロトタイプ 大型データ統合プロジェクトの自動化
コースの形式
    インタラクティブな講義と議論 たくさんの練習や実践。 ライブラボ環境でのハンドオン実装
コースカスタマイズオプション
    このコースのためのカスタマイズされたトレーニングを要求するには、私たちに連絡して整理してください。
14 時間
ベスパは、オープンソースのビッグデータ処理とエンジンを提供するヤフーによって作成されます。   ユーザーのクエリに応答し、推奨事項を作成し、パーソナライズされたコンテンツと広告をリアルタイムで提供するために使用します。 は、このインストラクター主導のライブトレーニングでは、大規模なデータを提供するという課題を紹介し、ユーザーの要求への応答を計算できるアプリケーションを作成することにより、参加者をリアルタイムで大量に処理します。 このトレーニングの終わりまでに、参加者は次のことができるようになります:
  • を使用してベスパはすぐにデータを計算する (ストア, 検索, ランク, 整理) ユーザーが待機している間に時間を提供する
  • は、機能検索、推奨事項、およびパーソナライゼーション
  • を含む既存のアプリケーションにベスパを実装します。
  • は、Hadoop やストームなどの既存のビッグデータシステムとベスパを統合して展開します。
観客
  • 開発者
コース の 形式
  • 部講義、パート討論、演習と重い実地練習
7 時間
Alluxioは、異なるストレージシステムを統合し、アプリケーションがメモリ速度でデータと相互作用することを可能にするオープンソースの仮想配布ストレージシステムです。 インテル、バイドゥ、アリババなどの企業によって使用されています。 このインストラクターによって導かれたライブトレーニングでは、参加者は Alluxio によって異なる計算フレームワークをストレージシステムとブリッジする方法を学び、マルチペタバイトスケールデータを効率的に管理する方法を学びます。 このトレーニングの終了後、参加者は:
    アプリケーションを開発する Alluxio 大型データシステムとアプリケーションを接続し、単一の名称スペースを保存 すべてのストレージ形式でビッグデータから効率的に価値を抽出する 作業負荷のパフォーマンスの向上 配布・管理 Alluxio 単独または集団
観客
    データ科学者 開発者 システム管理者
コースの形式
    部分講義、部分議論、練習、重い実践

Last Updated:

週末ビッグデータコース, 夜のビッグデータトレーニング, ビッグデータブートキャンプ, ビッグデータ インストラクターよる, 週末ビッグデータトレーニング, 夜のビッグデータコース, ビッグデータ指導, ビッグデータインストラクター, ビッグデータレーナー, ビッグデータレーナーコース, ビッグデータクラス, ビッグデータオンサイト, ビッグデータプライベートコース, ビッグデータ1対1のトレーニング週末Big Dataコース, 夜のBig Dataトレーニング, Big Dataブートキャンプ, Big Data インストラクターよる, 週末Big Dataトレーニング, 夜のBig Dataコース, Big Data指導, Big Dataインストラクター, Big Dataレーナー, Big Dataレーナーコース, Big Dataクラス, Big Dataオンサイト, Big Dataプライベートコース, Big Data1対1のトレーニング

コースプロモーション

No course discounts for now.

コースディスカウントニュースレター

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

一部のお客様

This site in other countries/regions