Formation officielle
Format : Stage pratique
Niveau Avancé
 
 
 
 
Répartition du temps : 40% exposés
50% pratique
10% échanges

La formation en détails

Description

Apache Spark s'est imposé ces dernières années comme le framework de référence pour traiter les données massives distribuées, et comme un outil central de l'écosystème Hadoop. Cette formation intensive embarque le participant de la découverte de Spark jusqu'à l'utilisation de ses fonctionnalités avancées.

La démarche pédagogique alterne apports théoriques sur les structures fondamentales Spark (RDD, DataFrame, DataSets) et de nombreux travaux pratiques pour favoriser la prise en main.
Les apprenants sont ainsi amenés à manipuler la console interactive pour prototyper, avant de coder, déployer et suivre des applications sur un cluster.
Un temps est également consacré aux évolutions majeures de la nouvelle version de Spark avec, entre autres, des cas d'usages complexes de traitement en flux (streaming).

Au cours de la formation, un panorama de l'écosystème Hadoop est ainsi dressé, en insistant sur les concepts essentiels des environnements distribués : stockage sur HDFS, calcul avec Map-Reduce et gestion des ressources via YARN.

Des compléments sur l'ingestion de données avec Hive et Kafka sont proposés, afin que les apprenants maîtrisent l'ensemble des outils nécessaires pour développer des applications Spark. Ils disposent ainsi d'une expertise complète pour préparer des données massives et les analyser avec Spark et/ou sur un cluster Hadoop.

Objectifs

  • Appréhender l'écosystème Apache Hadoop et son intégration dans le cycle de vie du traitement des données.
  • S'approprier les schémas selon lesquels les données sont distribuées, stockées et traitées dans un cluster Hadoop
  • Implémenter, configurer et déployer des applications Apache Spark sur un cluster Hadoop 
  • Manipuler Spark shell et les applications Spark pour explorer, traiter et analyser des données distribuées 
  • Requêter des données à l'aide de Spark SQL, les DataFrames et les Datasets
  • Créer et exécuter des dataframes avec Spark Streaming pour traiter un flux de données en continu (streaming)

Certification

Cette formation permet de préparer la certification CDP Data Developer.
L'inscription à la certification vous sera proposée de façon optionnelle au tarif de 300,00 € HT par tentative.

Public cible

  • Développeur
  • Analyste

Prérequis

  • Être à l'aise pour programmer dans l'un de ces langages : Scala et/ou Python
  • Connaissance de base des lignes de commande Linux requise
  • La connaissance de base du SQL est un plus
  • Aucune expérience préalable avec hadoop n'est nécessaire

Modalités pédagogiques

Formation avec apports théoriques, échanges sur les contextes des participants et retours d'expérience pratique du formateur, complétés de travaux pratiques et de mises en situation. Les exemples Apache Spark et les exercices de "hands-on" sont présentés avec Scala et Python. A la suite de la formation, les stagiaires auront la possibilité de passer l'examen Certification "CDP Data Developer " de Cloudera.

Profil du formateur

Toutes nos formations sont animées par des consultants-formateurs expérimentés et reconnus par leurs pairs.

Modalités d'évaluation et de suivi

L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction des stagiaires est réalisée systématiquement en fin de session et une attestation de formation est délivrée aux participants mentionnant les objectifs de la formation, la nature, le programme et la durée de l'action de formation ainsi que la formalisation des acquis.

Programme détaillé

Jour 1

INTRODUCTION À HADOOP ET À SON ÉCOSYSTÈME
  • Introduction générale à Hadoop
  • Traitement de données
  • Introduction aux exercices pratiques

HDFS : LE SYSTÈME DE FICHIERS HADOOP
  • Les composants d'un cluster Hadoop
  • L'architecture HDFS
  • Utiliser HDFS

LE TRAITEMENT DISTRIBUÉ SUR UN CLUSTER HADOOP
  • L'architecture de YARN
  • Travailler avec YARN

LES BASES DE APACHE SPARK
  • Introduction à Apache Spark
  • Démarrer et utiliser Spark Shell
  • Introduction aux Datasets et DataFrames Spark
  • Les opérations sur les DataFrames

MANIPULATION DES DATAFRAMES ET DES SCHÉMAS
  • Créer des DataFrames depuis diverses sources de données
  • Sauvegarder des DataFrames
  • Les schémas des DataFrames
  • Exécution gloutonne et paresseuse de Spark

Jour 2

ANALYSER DES DONNÉES AVEC DES REQUÊTES SUR DATAFRAMES
  • Requêter des DataFrames avec des expressions de colonnes
  • Les requêtes de groupement et d'agrégation
  • Les jointures

LES RDD - STRUCTURE FONDAMENTALE DE SPARK
  • Introduction aux RDD
  • Les sources de données de RDD
  • Créer et sauvegarder des RDD
  • Les opérations sur les RDD

TRANSFORMER LES DONNÉES AVEC DES RDD
  • Écrire et passer des fonctions de transformation
  • Fonctionnement des transformations de Spark
  • Conversion entre RDD et DataFrames

AGRÉGATION DE DONNÉES AVEC LES RDD DE PAIRES
  • Les RDD clé-valeur
  • Map-Reduce : principe et usage dans Spark
  • Autres opérations sur les RDD de paires

Jour 3

REQUÊTAGE DE TABLES ET DE VUES AVEC SPARK SQL
  • Requêter des tables en Spark en utilisant SQL
  • Requêter des fichiers et des vues
  • L'API catalogue de Spark

TRAVAILLER AVEC DES DATASETS SPARK EN SCALA
  • Les différences entre Datasets et DataFrames
  • Créer des Datasets
  • Charger et sauvegarder des Datasets
  • Les opérations sur les Datasets

ÉCRIRE, CONFIGURER ET LANCER DES APPLICATIONS SPARK
  • Écrire une application Spark
  • Compiler et lancer une application
  • Le mode de déploiement d'une application
  • L'interface utilisateur web des applications Spark
  • Configurer les propriétés d'une application

LE TRAITEMENT DISTRIBUÉ AVEC SPARK
  • Rappels sur le fonctionnement de Spark avec YARN
  • Le partitionnement des données dans les RDD
  • Exemple : le partitionnement dans les requêtes
  • Jobs, étapes et tâches
  • Exemple : le plan d'exécution de Catalyst
  • Exemple : le plan d'exécution de RDD

PERSISTANCE DE LA DONNÉE DISTRIBUÉE
  • La persistance des DataFrames et des Datasets
  • Les niveaux de persistances
  • Voir les RDD persistés

LES CAS D’USAGE DE SPARK
  • Les cas d'usages courants de Spark
  • Les algorithmes itératifs en Spark
  • Machine Learning avec Spark
  • Exemple : K-means

Jour 4

INTRODUCTION À SPARK STRUCTURED STREAMING
  • Introduction à Apache Spark Streaming
  • Créer des streaming DataFrames
  • Transformer des streaming DataFrames
  • Exécuter des requêtes de streaming

STRUCTURED STREAMING AVEC KAFKA
  • Introduction
  • Recevoir des messages Kafka
  • Envoyer des messages Kafka

AGRÉGATION ET JOINTURES SUR DES STREAMING DATAFRAMES
  • Aggrégation sur des streaming DataFrames
  • Jointure sur des streaming DataFrames

LE TRAITEMENT DE MESSAGES AVEC KAFKA
  • Introduction à Kafka
  • Passer à l'échelle avec Kafka
  • L'architecture d'un cluster Kafka
  • La ligne de commande Kafka
3.75 / 5

Satisfaction moyenne des participants

Sur la base de 5 avis, collectés en fin de formation durant les 12 derniers mois.

Nos autres formations du domaine « Data Engineering » Toutes les formations du domaine

Durée : 14 h / 2 j
Fondamentaux
 
 
 
 
Prochaine session : 20 novembre 2023
CLANA Cloudera Data Analyst
Formation officielle Cloudera Certified Associate Data Analyst
Certifiant
Durée : 28 h / 4 j
Fondamentaux
 
 
 
 
Prochaine session : 03 avril 2023
CLADM Administrer la plateforme CDP Private Cloud Base de Cloudera
Formation officielle Administrator Training: CDP Private Cloud Base
Certifiant
Durée : 28 h / 4 j
Fondamentaux
 
 
 
 
Prochaine session : Sur demande
ASPWD Programmer avec Apache Spark de Databricks
Formation officielle Databricks «Apache Spark™ Programming with Databricks »
Exclusivité Certifiant
Durée : 14 h / 2 j
Avancé
 
 
 
 
Prochaine session : 05 juin 2023
SQLNO NoSQL : découverte des solutions et architecture de la donnée
Appréhender les notions relatives aux systèmes distribués et les différentes solutions du marché
Durée : 14 h / 2 j
Fondamentaux
 
 
 
 
Prochaine session : 23 novembre 2023
ELK01 Gérer efficacement ses logs avec la stack ELK
S'approprier les bonnes pratiques de visualisation et supervision avec ElasticSearch, Logstach et Kibana
Durée : 14 h / 2 j
Fondamentaux
 
 
 
 
Prochaine session : 01 juin 2023

Besoin d'aide pour trouver votre formation ?

Contactez-nous

Sessions & Inscriptions

Session partagée avec d'autres organisations

Aucune session n'est programmée pour le moment 😕

N'hésitez pas à nous contacter pour signaler votre besoin !

Durée
28 h / 4 j

Nous contacter Télécharger le programme

Organiser une session dédiée à votre organisation

Durée
28 h / 4 j

Vous avez plusieurs collaborateurs à former ?

Cette formation peut être organisée
sous la forme de sessions dédiées
aux membres de votre organisation.

Demander un devis Nous contacter Télécharger le programme

Personnaliser cette formation

Cette formation vous intéresse
et vous souhaitez l'adapter pour
vos collaborateurs ?

Nos formateurs et notre équipe pédagogique sont à
votre disposition pour en discuter
et vous proposer un programme sur-mesure.

Nous contacter Télécharger le programme

OCTO Academy respecte votre vie privée

Ce site web stocke des informations vous concernant via le dépôt de cookie afin de mesurer l’audience du site. Ces données de navigation sont anonymisées.

En cliquant sur « OK pour moi », vous manifestez votre consentement pour le dépôt de ces cookies.

Lire la politique de confidentialité

À propos des cookies

Sur ce site, nous utilisons des cookies pour mesurer notre audience, entretenir la relation avec vous et vous adresser de temps à autre du contenu qualitif ainsi que de la publicité. Vous pouvez sélectionner ici ceux que vous autorisez à rester ici.

Cookies