Architecture des données : stockage et accès

Description

Si les algorithmes de Machine Learning ont connu des avancées majeures ces dernières années, c’est avant tout grâce à la quantité d’information disponible pour les entraîner. Accumuler toute cette donnée, la traiter, et la rendre disponible sont les enjeux principaux du mouvement Big Data.

Au cours de cette formation, nos consultants mettent à disposition les connaissances issues de leurs retours d'expériences auprès de nos clients, et vous font découvrir les bases des architectures permettant de répondre à ces enjeux de stockage et d’accès.

Objectifs pédagogiques

  • Découvrir les notions centrales de stockage de données
  • Appréhender les enjeux des nouvelles architectures de données (Hadoop, NoSQL, Spark), et positionner leurs usages au sein de l’univers Big Data
  • Savoir manipuler ces technologies et les bases de données de façon conjointe, pour mener à bien des analyses efficaces

Public cible

  • Analyste
  • Statisticien
  • Développeur

Pré-requis

  • Notions de programmation sur la base d’un langage quelconque
  • Manipulation basique de la ligne de commande Linux

Méthode pédagogique

Formation avec apports théoriques, échanges sur les contextes des participants et retours d’expérience pratique du formateur, complétés de travaux pratiques et de mises en situation.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DE LA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction des stagiaires est réalisée systématiquement en fin de session et une attestation de formation est délivrée aux participants mentionnant les objectifs de la formation, la nature, le programme et la durée de l'action de formation ainsi que la formalisation des acquis.

Programme :

Jour 1

  • INTRODUCTION
  • ACCES AUX DONNEES
    • Les fichiers
      • Arborescence
      • Formats
    • Les bases de données
      • Notion de Catalogue
      • Le langage SQL
      • Data Warehouses et Data Lake
      • Bases d’analyse
    • API
      • Définition
      • Web Scraping
    • Traitements en mémoire
  • ARCHITECTURE DE DONNEES
    • Limites des systèmes traditionnels
      • Limites des fichiers
      • Limites des SGBD
    • Les architectures distribuées
      • Patterns d’accès
        • OLTP
        • OLAP
      • Distribution vs Réplication
    • Concepts essentiels
      • Disponibilités
      • Cohérence
      • Tolérance à la partition
    • Le théorème CAP
    • Quorums
  • BASES NOSQL
    • Avantages et inconvénients
    • Modèles de données
      • Key-Value
      • Documents
      • Column-Family
      • Graph
    • Exemple : MongoDB
    • Les moteurs de recherche

JOUR 2

  • HADOOP
    • Introduction à Hadoop
      • Histoire
      • Ecosystème
    • HDFS
    • Map-Reduce
      • Les phases de Map-Reduce
      • Notion de job
      • Exemple
    • YARN
    • Les distributions
    • La ligne de commande
    • Administration d’un cluster
      • Resource Manager
      • History Server
      • Hue
  • ETUDES DE CAS
    • Traitements de courbes de charge
      • Contexte et hypothèses
      • Raisonnements
    • Analyse de logs
      • Contexte et Hypothèses
      • Raisonnements
  • CONCLUSION
    • Rappels des points abordés
    • Questions et réponses
    • Synthèse

Jour 3

  • DÉCOUVERTE DE SPARK
    • Spark Core
      • RDD
      • Transformations
      • Pair RDD
    • Spark SQL
    • Spark Streaming
    • Structured Streaming

Pour aller plus loin :

Type : Stage pratique en présentiel
Code formation : DSARC
Durée : 3 jours (21 heures)

Sessions inter-entreprises :

Tarif & dates intra-entreprise :
Devis sur demande
Nous Contacter