Format : Stage pratique
Niveau Avancé
 
 
 
 
Répartition du temps : 45% exposés
45% pratique
10% échanges

La formation en détails

Description

Les données non structurées issues de l'image sont omniprésentes en industrie et dans notre quotidien (face id, radars, détection d'objets, d'anomalies, caméras des chaînes de production, contrôle de qualité, médecine…).
Pour autant leur exploitation par les organisations s'avère complexe sans une approche réfléchie et structurante pour en tirer le meilleur parti. Les progrès en deep learning ont permis de rendre plus accessible l'exploitation des données images et vidéos.

Cette formation prépare les data scientists à maîtriser les données images et vidéos, au sein d'un contexte technologique innovant et en particulier au cours d'un projet d'Intelligence Artificielle.

A travers des exercices, vous apprendrez à structurer et créer des modèles de machine learning sur ces données. A la fin de la session, vous disposerez d'une compréhension solide du potentiel et de l'état de l'art en Computer Vision. Les mises en pratique vous permettront d'être indépendant pour déployer et créer de la valeur sur ces données, et devenir un expert de la vision.

Objectifs

  • Découvrir et manipuler la donnée image et vidéo
  • S'approprier le fonctionnement des modèles Convolutional Neural Network (CNN)
  • Implémenter un modèle CNN en classification, détection/segmentation, connaître l'état de l'art
  • Évaluer ses modèles et choisir les bonnes métriques
  • Connaître les méthodes pour interpréter les modèles CNN et leurs prédictions : IA de confiance (AI Act)
  • S'approprier les méthodes pour faire des inférences avec peu d'images (petite base de données)
  • Appréhender le fonctionnement de DALL-E 2 et des modèles de diffusion
  • Savoir générer de la donnée image ou modifier une image (améliorer la qualité de l'image, débruiter)
  • Optimiser et embarquer ce genre de modèle (sur un raspberry)
  • Posséder une cartographie des modèles à utiliser pour faire de l'inférence en temps réel

Public cible

  • Analyste
  • Statisticien
  • Architecte
  • Développeur
  • Data scientist
  • Machine Learning Engineer

Prérequis

Modalités pédagogiques

Formation avec apports théoriques, échanges sur les contextes des participants et retours d'expérience pratique des formateurs, complétés de travaux pratiques et de mises en situation.

Profil du formateur

Toutes nos formations sont animées par des consultants-formateurs et consultantes-formatrices dont l'expérience et l'expertise sont reconnues par leurs pairs.

Modalités d'évaluation et de suivi

L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique.
Afin de valider les compétences acquises lors de la formation, un formulaire d'auto-positionnement est envoyé en amont et en aval de celle-ci.
Une évaluation à chaud est également effectuée en fin de session pour mesurer la satisfaction des stagiaires et un certificat de réalisation leur est adressé individuellement.

Programme détaillé

Jour 1

INTRODUCTION À LA COMPUTER VISION
Les débuts de la CV, élément déclencheur
Frise chronologique de la CV et évolution du marché dans ce sens
Pourquoi le Deep Learning est-il devenu le standard ?
La révolution AlexNet

LES DÉBUTS DE L'IMAGERIE DANS LE NUMÉRIQUE
Rappel de traitement du signal
Représentation d’une image numérique
  • Compression
  • Encodage
  • Résolution d’une image
Applications historiques
  • Problème d’aliasing
  • Balance des blancs
  • Segmentation sémantique
Démonstration des transformations possibles d’une image selon les méthodes présentées

MACHINE LEARNING CLASSIQUE APPLIQUÉ À L'IMAGERIE
Représenter une image pour du Machine Learning
  • Tableau de pixels
  • Histogram de gradiant et descripteurs SIFT (Scale-invariant feature transform)
Métriques d’évaluation
  • Classification
  • Détection d’objets
  • Segmentation
Démonstration d’application du descripteur SIFT et mob pour implémenter la méthode

DEEP LEARNING APPLIQUÉ À L'IMAGERIE (PARTIE 1)
Introduction aux CNN (Convolutional Neural Network)
Principe du transfert learning
Vision transformers et MaskFormers (HuggingFace)
Applications et métriques d’évaluation
  • Classification : Théorie pour comprendre la classification dans le deep / Présentation des modèles à l’état de l’art
  • Détection : Comprendre la détection d’objets dans une image / Présentation des modèles à l’état de l’art et particularités
  • Segmentation (instance, semantic et panoptic) : Comprendre les différents types de segmentation d’objets (3 types) sur une image / Présentation des modèles à l’état de l’art et particularités
Démonstration d’application des différents types de segmentation et leur évaluation pour identifier leurs spécificités (ex: Bodypix)
Mise en pratique : “Implémenter, en mob, un modèle de Deep Learning effectuant de la détection et segmentation, en évaluant les performances du modèle - en passant par la méthode de transfer learning”
Mise en pratique : “Visualiser les filtres du modèle implémenté”

Jour 2

DEEP LEARNING APPLIQUÉ À L'IMAGERIE (PARTIE 2)
Présentation de Pytorch et Tensorflow
Applications à la vidéo
Mises en pratique :
  • “Améliorer le modèle utilisé le jour 1 pour le même cas d’usage mais appliqué à une vidéo”
  • “Évaluer la performance en temps de calcul de son modèle”

MODÈLES COMPARATIFS EN IMAGERIE 
Contrastive learning (lien)
  • Caractéristiques générales d'un ensemble de données sans label, en apprenant au modèle quels points de données sont similaires ou différents
Zero-shot learning
  • Lien entre la sémantique textuelle et ses représentations visuelles : Contrastive Language-Image Pretaining (CLIP) - OpenAI
  • Guided Language to Image Diffusion for Generation and Editing (GLIDE)
One-shot learning
  • Facenet (Google, 2015): face recognition
  • “Liveness detection” : distinction entre photo et personne physique (PyimagesSearch)
  • RN siamois (lien)
Few-shot learning
Métriques d’évaluation
Démonstration : “Reconnaissance faciale en one-shot learning”
Mise en pratique : “Remplacer son modèle en appliquant un modèle CLIP (zero-shot-learning) et comparer les performances avec un modèle deep classique”

INTERPRÉTABILITÉ
Méthodes spécifiques aux images
Shapley values & LIME
Adversarial Attack
Mises en pratique :
  • “Vérifier que son modèle implémenté apprend bien ce que l’on souhaite qu’il apprenne”
  • “Tromper le modèle qui doit détecter des personnes”

Jour 3

MODÈLES GÉNÉRATIFS
Data augmentation : Synthetic dataset
GAN
Modèles de diffusion
  • DALL-E 2 : architecture - fonctionnement
  • Stable diffusion : code avec Stability AI : site web , repo
Applications
  • ​​Unconditional image generation
  • Inpainting : supprimer les objets indésirables d'une image ou recréer les régions manquantes d'images occluses (DFT) -lien paper
  • Super-resolution (medium)
  • Correction de défauts (ex: débruitage, augmentation des détails, amélioration de la qualité, niveau de lumière, flou…)
Evaluation des risques
  • Applications frauduleuses: DeepFake
  • Éthique: biais ethniques et sociaux
Démonstrations
  • “Synthetic dataset, concrètement comment ça s’implémente”
  • “Transfert de style avec du Deep Learning”
Mise en pratique : “Manipuler Stable Diffusion (prévoir des machines avec GPU)”

IMAGERIE EMBARQUÉE
Contraintes
Optimisation de modèle (pour l’inférence)
  • Architecture de modèle spécifique (mobilenet, yolo) : Mobilenet, architecture du modèle et spécificité - avantage et inconvénient (rapide à inférer mais long à entraîner) / YOLO - YOLOv8, spécificité (ce qui le rend rapide et juste à la fois) - zoom sur temps d'entraînement et temps d’inférence
  • Considérations énergétiques : Frugalité en ML / Knowledge distillation, quantization, weight pruning, morphnet
  • Outils disponibles et accélérateurs d’inférence : TFlite / Tensorflow extended (TFX) / TensorFlow Lite Model Maker / CoralTPU / Tensor RT pour NVDIA
  • Mises en pratique : “Embarquer son modèle implémenté le jour 2 sur un Raspberry PI ou sur une Coral” / “Effectuer de la détection en temps réel sur Raspberry Pi ou sur la Coral”

BILAN ET CLÔTURE DE SESSION
Revue des concepts clés présentés tout au long de la formation
Questions et réponses additionnelles
Evaluation et Clôture

Nos autres formations du domaine « Data Science » Toutes les formations du domaine

DSFDX Fondamentaux de la Data Science
S'initier à la pratique de la Data Science et constituer sa première boîte à outils de Data Scientist
Meilleure vente
Durée : 21 h / 3 j
Fondamentaux
 
 
 
 
Prochaine session : 18 mars 2024
DSNVA Data Science : niveau avancé
Approfondir des concepts avancés de machine learning et enrichir sa boîte à outils de Data Scientist
Durée : 21 h / 3 j
Avancé
 
 
 
 
Prochaine session : 25 mars 2024
NLPSR Intelligence Artificielle : Natural Language Processing (NLP) & Speech Recognition
Devenir un expert du langage écrit et parlé avec python
Durée : 21 h / 3 j
Avancé
 
 
 
 
Prochaine session : 05 février 2024
DSETI Data Science : s’approprier les bonnes pratiques de l'Intelligence Artificielle Responsable
Appréhender les enjeux éthiques et favoriser l'interprétabilité et la vigilance des modèles de Machine Learning
Durée : 7 h / 1 j
Fondamentaux
 
 
 
 
Prochaine session : 04 avril 2024
GREAI Green AI : l’intelligence artificielle responsable
Concevoir des modèles de Machine Learning en visant un équilibre entre performance et frugalité
Nouveau Exclusivité
Durée : 14 h / 2 j
Avancé
 
 
 
 
Prochaine session : 11 mars 2024
DSGDP Cadrage et pilotage d'un projet de Data Science
Comprendre les spécificités d'un projet de Data Science pour mieux le piloter de la conception au delivery
Durée : 14 h / 2 j
Avancé
 
 
 
 
Prochaine session : 05 février 2024

Besoin d'aide pour trouver votre formation ?

Contactez-nous

Sessions & Inscriptions

Session partagée avec d'autres organisations

Prochaines sessions
  • du 31/01 au 02/02/2024
    Présentiel, Paris
    2 500,00 € HT
  • du 27 au 29/05/2024
    Présentiel, Paris
    2 500,00 € HT
  • du 30/09 au 02/10/2024
    Présentiel, Paris
    2 500,00 € HT
Durée
21 h / 3 j

Demander un devis Nous contacter
Télécharger le programme

Organiser une session dédiée à votre organisation

Durée
21 h / 3 j

Vous avez plusieurs collaborateurs à former ?

Cette formation peut être organisée
sous la forme de sessions dédiées
aux membres de votre organisation.

Demander un devis Nous contacter Télécharger le programme

Personnaliser cette formation

Cette formation vous intéresse
et vous souhaitez l'adapter pour
vos collaborateurs ?

Nos formateurs et notre équipe pédagogique sont à
votre disposition pour en discuter
et vous proposer un programme sur-mesure.

Nous contacter Télécharger le programme

OCTO Academy respecte votre vie privée

Ce site web stocke des informations vous concernant via le dépôt de cookie afin de mesurer l’audience du site. Ces données de navigation sont anonymisées.

En cliquant sur « OK pour moi », vous manifestez votre consentement pour le dépôt de ces cookies.

Lire la politique de confidentialité

À propos des cookies

Sur ce site, nous utilisons des cookies pour mesurer notre audience, entretenir la relation avec vous et vous adresser de temps à autre du contenu qualitif ainsi que de la publicité. Vous pouvez sélectionner ici ceux que vous autorisez à rester ici.

Cookies