Formation Microsoft Azure Data Factory

Vous êtes ici :

Cette formation permet de découvrir les fondamentaux et les compétences avancées d’Azure Data Factory et d’explorer l’utilisation des différents composants. Cette formation vous prépare à créer, orchestrer et gérer des pipelines de données de manière efficace, renforçant ainsi votre expertise dans le domaine du traitement des données dans le cloud.

A l’issue de la formation les stagiaires seront capables de :

  • Maîtrise des Fondamentaux d’Azure Data Factory
  • Acquérir les compétences nécessaires pour préparer, collecter et extraire des données de manière efficace.
  • Utilisation Avancée des Composants d’Azure Data Factory
  • Optimisation de la Conception des Pipelines
  • Surveillance et Gestion Proactives des Erreurs de Pipelines

Cette formation s’adresse aux développeurs et ingénieurs de données désireux d’acquérir ou de perfectionner leurs compétences sur Azure Data Factory. Elle convient également aux professionnels de l’informatique, architectes cloud, analystes de données et responsables BI.

  • Une compréhension préalable des principes fondamentaux de Microsoft Azure et des concepts d’intégration de données est bénéfique.
  • Ordinateur Portable ou de bureau
  • Connexion Internet Stable
  • Navigateur Web
  • Environnement de Développement Azure (Azure offre une période d’essai gratuite pour les nouveaux utilisateurs)
  • Aucune expérience préalable avec Azure Data Factory n’est nécessaire.
  • Moyens : support pédagogique (PDF numérique remis à chaque stagiaire),
  • Méthodes : Exposé, démonstration par le formateur, exercices pratiques pour les stagiaires
  • Suivi :
    • Feuille d’émargement pour les formations sur site et à distance (envoyé par mail à l’entreprise)
    • Certificat de réalisation (pour les OPCO)
    • Attestation individuelle de fin de formation distance (envoyé par mail au stagiaire)
  • Évaluation du stagiaire :
    • Autoévaluation quelques jours avant l’entrée en formation (niveau de départ, besoins, attentes)
    • Evaluation théorique de la formation
    • Evaluation pratique de la formation
  • Évaluation du formateur et de la formation :
    • Questionnaire de satisfaction à chaud en fin de formation
    • Evaluation à froid 3 mois après la formation
Certifié Qualiopi
Certification Datadock

250 formations délivrées

1500 stagiaires formés

96% satisfaits

Programme détaillé de la formation Microsoft Azure Data Factory

Jour 1 (7h)
Matin (9h – 12h30)
  • Introduction

    • Qu’est-ce que Microsoft Azure ?
    • Microsoft Portail Azure
    • Présentation de l’interface
    • Les prérequis
    • Groupes de ressources
    • Le stockage et conteneurs
    • Le Conteneur
    • La BDD SQL
    • La fabrique de données (Data Factory)
Après-midi (14h – 17h)
  • Microsoft Azure Data Factory

    • Qu’est-ce qu’Azure Data Factory
    • Présentation de l’interface
    • Les prérequis
    • Ressources de fabrique
      • Jeu de données
      • Pipeline de données
      • Flux de données
  • Les activités principales

    • Déplacer et transformer des données
    • Outil « Copier des données »
    • Créer un pipeline
    • Traitements des flux de données
    • Activités générales, d’itération et conditions
À l’issue de cette journée, les participants seront capables de naviguer dans le portail Azure, comprendre les bases d’Azure Data Factory, et créer leurs premières fabriques de données.
Jour 2 (7h)

Matin (9h – 12h30)

  • Planification de pipelines

  • Gestion des erreurs

Après-midi (14h – 17h)

  • Evaluation théorique 

  • Pour aller plus loin : Exercices pratiques 

À l’issue de cette journée, les participants maîtriseront l’automatisation de leurs pipelines et exploiteront des fonctions avancées d’Azure Data Factory.

Jour 3 (7h)

Matin (9h – 12h30)

  • Automatisation de Pipeline et Découverte des Fonctions ADF

    • Création de Pipeline Modulable de Copie avec Sauvegarde
    • Utilisation Avancée des Métadonnées et des Procédures Stockées
    • Utilisation Avancée du Foreach et du Filtre
    • Création d’un Déclencheur basé sur un Événement

Après-midi (14h – 17h)

  • Mise en Place d’un Entrepôt de Données avec Azure Synapse Analytics

    • Travail avec Azure Data Lake
    • Traiter des Données Massives avec HDInsight et Databricks
  • Intégration avec SSIS

    • Exécuter des packages SSIS depuis ADF
    • Migration SSIS -> ADF
  • Surveillance et Gestion des Erreurs de Pipelines

À l’issue de cette journée, les participants seront capables de mettre en œuvre un entrepôt de données, travailler avec Azure Data Lake, et traiter des données massives dans le cloud.