En navigant sur ce site, vous acceptez l’utilisation de cookies ou autres traceurs vous permettant une utilisation optimale du site (partages sur les réseaux sociaux, statistiques de visite, etc.)
NEW

Programmer avec Apache Spark de Databricks

Formation officielle Databricks «Apache Spark™ Programming with Databricks »

Description

Apache Spark est un moteur d'analyses unifiées ultra-rapide pour le big data et le machine learning. Depuis sa sortie, il a connu une adoption rapide par les entreprises de secteurs très divers. Des acteurs majeurs du monde de l'internet tels que Netflix, Yahoo et eBay l’ont déployé à très grande échelle, traitant ensemble plusieurs peta-octets de données sur des clusters de plus de 8 000 nœuds.

En deux jours, cette formation propose un panorama pratique de la solution Apache Spark en alternant des présentations théoriques et des exercices pratiques. Ce module couvre les APIs de base de Spark, les fondamentaux et les mécanismes du framework, mais aussi les outils de plus haut-niveau, dont SQL, ainsi que ses capacités de traitement en streaming et l’API de machine learning.

A l’issue de la session, les notebooks peuvent être conservés et être réutilisés dans le service cloud gratuit Databricks Community Edition, pour lequel la compatibilité est garantie. Il est également possible d’exporter le notebook sous forme de code source pour exécution sur n’importe quel environnement Spark.
Ce cours officiel prépare à la certification "Databricks Certified Associate Developer for Apache Spark 3.0". La certification se passe après la formation et n'est pas obligatoire.

Databricks

Objectifs pédagogiques

  • Décrire les fondamentaux de Spark
  • Exploiter les APIs de base de Spark pour manipuler des données
  • Concevoir et implémenter des cas d’usage typiques de Spark
  • Construire des pipelines de données et requêter de larges jeux de données grâce à Spark SQL et aux DataFrames
  • Analyser les jobs Sparks à l’aide des interfaces d’administration et des logs au sein des environnements Databricks
  • Créer des jobs de type Structured Streaming
  • Découvrir les bases du fonctionnement interne de Spark
  • Découvrir le pattern Deltalake

Public cible

  • Data engineers et data analysts ayant l’expérience des traitements Big Data, qui souhaitent apprendre à utiliser Apache Spark pour effectuer leurs traitements Big Data, construire des jobs Spark à destination de la production et comprendre mais aussi déboguer des applications Spark.

Pré-requis

  • Une première expérience avec Apache Spark est conseillée
  • Avoir utilisé les Spark DataFrames dans des cas simples est souhaitable
  • Une expérience de programmation en langage objet ou fonctionnel est nécessaire

Méthode pédagogique

Formation avec apports théoriques, échanges sur les contextes des participants et retours d’expérience du formateur, complétés de travaux pratiques et de mises en situation. La formation mélange les langages Python et Scala.

Chaque sujet abordé comprend une partie d’exposé couplée à une mise en pratique de Spark au travers d’un environnement type notebook web. Inspiré d’outils tels IPython/Jupyter, les notebooks permettent aux participants de développer des jobs, des requêtes d’analyse et des représentations visuelles s’appuyant sur leur propre cluster Spark, le tout depuis leur navigateur web.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DE LA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction des stagiaires est réalisée systématiquement en fin de session et une attestation de formation est délivrée aux participants mentionnant les objectifs de la formation, la nature, le programme et la durée de l'action de formation ainsi que la formalisation des acquis.

Programme :

Jour 1

  • Aperçu de Spark et DataFrames
    • Introduction
    • L’écosystème Databricks
    • Spark SQL
    • Lecture et écriture de données
    • Dataframe et colonnes
  • Transformations et manipulations de données
    • Agrégations
    • Datetimes
    • Types complexes
    • Fonctions additionnelles
    • UDF : User Defined Functions

Jour 2

  • Optimisation de Spark
    • Architecture
    • Shuffle et Cache
    • Optimisation des requêtes
    • Spark UI
    • Gestion des partitions
  • Structured Streaming
    • Exposés
    • Streaming et requêtes
    • Processing streaming
    • Agrégations
    • Deltalake
  • Conclusion
    • Évaluation de la session
    • Partage sur la formation
    • Questions/réponses additionnelles
Type : Stage pratique en présentiel
Code formation : ASPWD
Durée : 2 jours (14 heures)
Certification : 240 € HT

Sessions inter-entreprises :

Tarif & dates intra-entreprise :
Devis sur demande
Nous Contacter