Aller directement au contenu
Format : Stage pratique
Niveau Avancé
Répartition du temps : 45% exposés
45% pratique
10% échanges

La formation en détails

Description

Les données non structurées issues de l'image sont omniprésentes en industrie et dans notre quotidien (face id, radars, détection d'objets, d'anomalies, caméras des chaînes de production, contrôle de qualité, médecine…).

Pour autant leur exploitation par les organisations s'avère complexe sans une approche réfléchie et structurante pour en tirer le meilleur parti. Les progrès en deep learning ont permis de rendre plus accessible l'exploitation des données images et vidéos.

 

Cette formation prépare les data scientists à maîtriser les données images et vidéos, au sein d'un contexte technologique innovant et en particulier au cours d'un projet d'Intelligence Artificielle.

 

A travers des exercices, vous apprendrez à structurer et créer des modèles de machine learning sur ces données. A la fin de la session, vous disposerez d'une compréhension solide du potentiel et de l'état de l'art en Computer Vision. Les mises en pratique vous permettront d'être indépendant pour déployer et créer de la valeur sur ces données, et devenir un expert de la vision.

Objectifs

  • Découvrir et manipuler la donnée image et vidéo
  • S'approprier le fonctionnement des modèles Convolutional Neural Network (CNN)
  • Implémenter un modèle CNN en classification, détection/segmentation, connaître l'état de l'art
  • Évaluer ses modèles et choisir les bonnes métriques
  • Connaître les méthodes pour interpréter les modèles CNN et leurs prédictions : IA de confiance (AI Act)
  • S'approprier les méthodes pour faire des inférences avec peu d'images (petite base de données)
  • Appréhender le fonctionnement de DALL-E 2 et des modèles de diffusion
  • Savoir générer de la donnée image ou modifier une image (améliorer la qualité de l'image, débruiter)
  • Optimiser et embarquer ce genre de modèle (sur un raspberry)
  • Posséder une cartographie des modèles à utiliser pour faire de l'inférence en temps réel

Public cible

  • Analyste
  • Statisticien
  • Architecte
  • Développeur
  • Data scientist
  • Machine Learning Engineer

Prérequis

Modalités pédagogiques

Formation avec apports théoriques, échanges sur les contextes des participants et retours d'expérience pratique des formateurs, complétés de travaux pratiques et de mises en situation.

Profil du formateur

Toutes nos formations sont animées par des consultants-formateurs et consultantes-formatrices dont l'expérience et l'expertise sont reconnues par leurs pairs.

Modalités d'évaluation et de suivi

L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique.

Afin de valider les compétences acquises lors de la formation, un formulaire d'auto-positionnement est envoyé en amont et en aval de celle-ci.

Une évaluation à chaud est également effectuée en fin de session pour mesurer la satisfaction des stagiaires et un certificat de réalisation leur est adressé individuellement.

Programme détaillé

Jour 1

 

INTRODUCTION À LA COMPUTER VISION

Les débuts de la CV, élément déclencheur

Frise chronologique de la CV et évolution du marché dans ce sens

Pourquoi le Deep Learning est-il devenu le standard ?

La révolution AlexNet

 

LES DÉBUTS DE L'IMAGERIE DANS LE NUMÉRIQUE

Rappel de traitement du signal

Représentation d'une image numérique

  • Compression
  • Encodage
  • Résolution d'une image

Applications historiques

  • Problème d'aliasing
  • Balance des blancs
  • Segmentation sémantique

Démonstration des transformations possibles d'une image selon les méthodes présentées

 

MACHINE LEARNING CLASSIQUE APPLIQUÉ À L'IMAGERIE

Représenter une image pour du Machine Learning

  • Tableau de pixels
  • Histogram de gradiant et descripteurs SIFT (Scale-invariant feature transform)

Métriques d'évaluation

  • Classification
  • Détection d'objets
  • Segmentation

Démonstration d'application du descripteur SIFT et mob pour implémenter la méthode

 

DEEP LEARNING APPLIQUÉ À L'IMAGERIE (PARTIE 1)

Introduction aux CNN (Convolutional Neural Network)

Principe du transfert learning

Vision transformers et MaskFormers (HuggingFace)

Applications et métriques d'évaluation

  • Classification : Théorie pour comprendre la classification dans le deep / Présentation des modèles à l'état de l'art
  • Détection : Comprendre la détection d'objets dans une image / Présentation des modèles à l'état de l'art et particularités
  • Segmentation (instance, semantic et panoptic) : Comprendre les différents types de segmentation d'objets (3 types) sur une image / Présentation des modèles à l'état de l'art et particularités

Démonstration d'application des différents types de segmentation et leur évaluation pour identifier leurs spécificités (ex: Bodypix)

Mise en pratique : “Implémenter, en mob, un modèle de Deep Learning effectuant de la détection et segmentation, en évaluant les performances du modèle - en passant par la méthode de transfer learning”

Mise en pratique : “Visualiser les filtres du modèle implémenté”

 

Jour 2

 

DEEP LEARNING APPLIQUÉ À L'IMAGERIE (PARTIE 2)

Présentation de Pytorch et Tensorflow

Applications à la vidéo

Mises en pratique :

  • “Améliorer le modèle utilisé le jour 1 pour le même cas d'usage mais appliqué à une vidéo”
  • “Évaluer la performance en temps de calcul de son modèle”

 

MODÈLES COMPARATIFS EN IMAGERIE 

Contrastive learning (lien)

  • Caractéristiques générales d'un ensemble de données sans label, en apprenant au modèle quels points de données sont similaires ou différents

Zero-shot learning

  • Lien entre la sémantique textuelle et ses représentations visuelles : Contrastive Language-Image Pretaining (CLIP) - OpenAI
  • Guided Language to Image Diffusion for Generation and Editing (GLIDE)

One-shot learning

  • Facenet (Google, 2015): face recognition
  • “Liveness detection” : distinction entre photo et personne physique (PyimagesSearch)
  • RN siamois (lien)

Few-shot learning

Métriques d'évaluation

Démonstration : “Reconnaissance faciale en one-shot learning”

Mise en pratique : “Remplacer son modèle en appliquant un modèle CLIP (zero-shot-learning) et comparer les performances avec un modèle deep classique”

 

INTERPRÉTABILITÉ

Méthodes spécifiques aux images

Shapley values & LIME

Adversarial Attack

Mises en pratique :

  • “Vérifier que son modèle implémenté apprend bien ce que l'on souhaite qu'il apprenne”
  • “Tromper le modèle qui doit détecter des personnes”

 

Jour 3

 

MODÈLES GÉNÉRATIFS

Data augmentation : Synthetic dataset

GAN

Modèles de diffusion

  • DALL-E 2 : architecture - fonctionnement
  • Stable diffusion : code avec Stability AI : site web , repo

Applications

  • ​​Unconditional image generation
  • Inpainting : supprimer les objets indésirables d'une image ou recréer les régions manquantes d'images occluses (DFT) -lien paper
  • Super-resolution (medium)
  • Correction de défauts (ex: débruitage, augmentation des détails, amélioration de la qualité, niveau de lumière, flou…)

Evaluation des risques

  • Applications frauduleuses: DeepFake
  • Éthique: biais ethniques et sociaux

Démonstrations

  • “Synthetic dataset, concrètement comment ça s'implémente”
  • “Transfert de style avec du Deep Learning”

Mise en pratique : “Manipuler Stable Diffusion (prévoir des machines avec GPU)”

 

IMAGERIE EMBARQUÉE

Contraintes

Optimisation de modèle (pour l'inférence)

  • Architecture de modèle spécifique (mobilenet, yolo) : Mobilenet, architecture du modèle et spécificité - avantage et inconvénient (rapide à inférer mais long à entraîner) / YOLO - YOLOv8, spécificité (ce qui le rend rapide et juste à la fois) - zoom sur temps d'entraînement et temps d'inférence
  • Considérations énergétiques : Frugalité en ML / Knowledge distillation, quantization, weight pruning, morphnet
  • Outils disponibles et accélérateurs d'inférence : TFlite / Tensorflow extended (TFX) / TensorFlow Lite Model Maker / CoralTPU / Tensor RT pour NVDIA
  • Mises en pratique : “Embarquer son modèle implémenté le jour 2 sur un Raspberry PI ou sur une Coral” / “Effectuer de la détection en temps réel sur Raspberry Pi ou sur la Coral”

 

BILAN ET CLÔTURE DE SESSION

Revue des concepts clés présentés tout au long de la formation

Questions et réponses additionnelles

Evaluation et Clôture

Nos autres formations du domaine « Data Science » Toutes les formations du domaine

DSFDX Fondamentaux de la Data Science
S'initier à la pratique de la Data Science et constituer sa première boîte à outils de Data Scientist
Durée : 21 h / 3 j
Fondamentaux
 
 
 
 
Prochaine session : 24 juin 2024
DSNVA Data Science : niveau avancé
Approfondir des concepts avancés de machine learning et enrichir sa boîte à outils de Data Scientist
Durée : 21 h / 3 j
Avancé
 
 
 
 
Prochaine session : 01 juillet 2024
NLPSR Intelligence Artificielle : Natural Language Processing (NLP) & Speech Recognition
Devenir un expert du langage écrit et parlé avec python
Durée : 21 h / 3 j
Avancé
 
 
 
 
Prochaine session : 27 mai 2024
DSETI Data Science : s’approprier les bonnes pratiques de l'Intelligence Artificielle Responsable
Appréhender les enjeux éthiques et favoriser l'interprétabilité et la vigilance des modèles de Machine Learning
Durée : 7 h / 1 j
Fondamentaux
 
 
 
 
Prochaine session : 20 septembre 2024
GREAI Green AI : l’intelligence artificielle responsable
Concevoir des modèles de Machine Learning en visant un équilibre entre performance et frugalité
Durée : 14 h / 2 j
Avancé
 
 
 
 
Prochaine session : 20 juin 2024
DSGDP Cadrage et pilotage d'un projet de Data Science
Comprendre les spécificités d'un projet de Data Science pour mieux le piloter de la conception au delivery
Durée : 14 h / 2 j
Avancé
 
 
 
 
Prochaine session : 27 mai 2024

Découvrez les profils métiers associés à cette formation

Data Scientist
La puissance prédictive au service des orientations stratégiques
Machine Learning Engineer
L'ingénierie logiciel au profit de vos projets de Data Science

Besoin d'aide pour trouver votre formation ?

Contactez-nous

Sessions & Inscriptions

Session partagée avec d'autres organisations

Prochaines sessions
  • du 27 au 29/05/2024
    Présentiel, Paris
    Session confirmée ✅
    2 500,00 € HT
  • du 30/09 au 02/10/2024
    Présentiel, Paris
    2 500,00 € HT
Durée
21 h / 3 j

Demander un devis Nous contacter
Télécharger le programme

Organiser une session dédiée à votre organisation

Durée
21 h / 3 j

Vous avez plusieurs collaborateurs à former ?

Cette formation peut être organisée
sous la forme de sessions dédiées
aux membres de votre organisation.

Demander un devis Nous contacter Télécharger le programme

Personnaliser cette formation

Cette formation vous intéresse
et vous souhaitez l'adapter pour
vos collaborateurs ?

Nos formateurs et notre équipe pédagogique sont à
votre disposition pour en discuter
et vous proposer un programme sur-mesure.

Nous contacter Télécharger le programme

OCTO Academy respecte votre vie privée

Ce site web stocke des informations vous concernant via le dépôt de cookie afin de mesurer l’audience du site. Ces données de navigation sont anonymisées.

En cliquant sur « OK pour moi », vous manifestez votre consentement pour le dépôt de ces cookies.

Lire la politique de confidentialité

À propos des cookies

Sur ce site, nous utilisons des cookies pour mesurer notre audience, entretenir la relation avec vous et vous adresser de temps à autre du contenu qualitif ainsi que de la publicité. Vous pouvez sélectionner ici ceux que vous autorisez à rester ici.

Cookies