79009
Big Data Hadoop and Spark Developer 1 anno senza esame
Big Data Hadoop and Spark Developer 1 anno senza esame corso online in Inglese erogato da iLEARN Innovative Learning
Con questo corso Big Data Hadoop, imparerete il framework dei big data utilizzando Hadoop and Spark, inclusi HDFS, YARN, e MapReduce. Il corso coprirà anche Pig, Hive, e Impala per elaborare e analizzare grandi set di dati memorizzati nell'HDFS e utilizzare Sqoop e Flume per l'ingestione di dati.
Vi verrà mostrato il processo di elaborazione dei dati in tempo reale utilizzando Spark, inclusa la programmazione funzionale in Spark, l'implementazione di applicazioni Spark, la comprensione dell'elaborazione parallela in Spark e l'utilizzo delle tecniche di ottimizzazione Spark RDD. Imparerete anche i vari algoritmi interattivi in Spark e utilizzerete Spark SQL per creare, trasformare e interrogare forme di dati.
Infine, vi verrà richiesto di eseguire progetti basati sulla vita reale nell'ambito della finanza, delle telecomunicazioni, dei social media, delle assicurazioni e dell'e-commerce utilizzando CloudLab.
Il corso Big Data Hadoop and Spark Developer è fornito da ILX Group.
Dettagli del corso Big Data Hadoop and Spark Developer online
- 12 mesi di accesso online al corso e-learning*
- Si prevedono circa 15 ore per completare il corso
- 16 lezioni
- Corso gratuito incluso - Apache Kafka
- Corso gratuito incluso - Core Java
- 5 progetti basati sulla vita reale
- Due simulazioni d'esame ufficiali
*Tutte le risorse disponibili per il corso si trovano nel menu "Resources" all'interno del corso. Non è fornita una copia scaricabile del contenuto dell'eLearning stesso. Il PDF User Guide contiene una trascrizione delle video lezioni del corso.
FORMATO E CARATTERISTICHE DEL CORSO ONLINE
- Non è disponibile un esame, ma dovete completare l'85% del corso e completare un test di simulazione, con un punteggio minimo del 60%, per ottenere un certificato.
Tipologia
Corsi online senza esameLuogo
OnlinePrezzo per persona
Durata accesso corso
1 annoLingua
IngleseObiettivi
Alla fine del corso sarete in grado di comprendere:
- I diversi componenti dell'ecosistema Hadoop come Hadoop 2.7, Yarn, MapReduce, Pig, Hive, Impala, HBase, Sqoop, Flume, e Apache Spark
- L'architettura di Hadoop Distributed File System (HDFS) e YARN
- MapReduce e le sue caratteristiche e assimilare concetti avanzati di MapReduce
- I diversi tipi di formati di file, lo schema Avro, l'utilizzo di Avro con Hive, e l'evoluzione di Sqoop e Schema
- Flume, l'architettura di Flume, le sue fonti, i suoi obiettivi, i suoi canali e le sue configurazioni
- HBase, la sua architettura e l'archiviazione dei dati, e apprendere la differenza tra HBase e RDBMS
- I Resilient Distribution Datasets (RDD) in dettaglio
- I casi d'uso comuni di Spark e vari algoritmi interattivi
Inoltre, sarete in grado di:
- Ingestire i dati utilizzando Sqoop e Flume
- Creare database e tabelle in Hive e Impala, capire HBase e utilizzare Hive e Impala per la partizione
- Acquisire una conoscenza pratica di Pig e dei suoi componenti
- Svolgere la programmazione funzionale in Spark, e implementare e creare applicazioni Spark
- Acquisire una comprensione approfondita dell'elaborazione in parallelo in Spark e delle tecniche di ottimizzazione Spark RDD
- Creare, trasformare e interrogare frame di dati con Spark SQL
A chi è rivolto
Le opportunità di carriera in ambito big data sono in crescita e Hadoop sta diventando rapidamente una tecnologia indispensabile nell'architettura dei big data. La formazione in Big Data è adatta a professionisti IT, di gestione dei dati e di analisi, tra cui:
- Sviluppatori e architetti di software
- Professionisti di analisi
- Professionisti IT senior
- Professionisti di testing e mainframe
- Professionisti di gestione dei dati
- Professionisti di business intelligence
- Project manager
- Aspiranti data scientist
- Laureati che desiderano costruire una carriera nell'analisi dei big data
Contenuti
Il corso copre i seguenti argomenti:
- Introduzione al corso
- Lezione 1 - Introduzione ai big data e all'ecosistema Hadoop
- Lezione 2 - HDFS e YARN
- Lezione 3 - MapReduce e Sqoop
- Lezione 4 - Fondamenti di Hive e Impala
- Lezione 5 - Lavorare con Hive e Impala
- Lezione 6 - Tipi di formati di dati
- Lezione 7 - Concetti avanzati di Hive e partizione dei file di dati
- Lezione 8 - Apache Flume e HBase
- Lezione 9 - Pig
- Lezione 10 - Fondamenti di Apache Spark
- Lezione 11 - RDDs in Spark
- Lezione 12 - Implementazione di applicazioni Spark
- Lezione 13 - Elaborazione in parallelo Spark
- Lezione 14 - Tecniche di ottimizzazione Spark RDD
- Lezione 15 - Algoritmi Spark
- Lezione 16 - Spark SQL
- CORSO GRATUITO - Apache Kafka
- CORSO GRATUITO - Core Java
Prerequisiti
Non ci sono prerequisiti per questo corso. Tuttavia, è utile avere qualche conoscenza di Core Java e SQL. Offriamo un corso online di autoapprendimento gratuito "Java essentials for Hadoop" se avete bisogno di rinfrescare le vostre competenze di Core Java.