Formation Microsoft Fabric

Vous êtes ici :

Cette formation permet de découvrir les fondamentaux et les compétences avancées de Microsoft Fabric et d’explorer l’utilisation de ses différents composants. Elle vous prépare à concevoir, transformer et orchestrer des pipelines de données de bout en bout sur la plateforme unifiée Microsoft Fabric depuis l’ingestion de données brutes jusqu’à la publication d’un rapport Power BI analytique renforçant ainsi votre expertise dans le domaine de la donnée et de la BI moderne dans le cloud Microsoft.

À l’issue de la formation, les stagiaires seront capables de :

  • Maîtriser les fondamentaux de la plateforme Microsoft Fabric et de son architecture unifiée (OneLake, Workloads, Capacity)
  • Créer et configurer des Lakehouses selon l’architecture Medallion (Bronze / Silver / Gold
  • Ingérer, transformer et enrichir des données à l’aide de Notebooks Apache Spark (PySpark)
  • Modéliser un schéma en étoile (Star Schema) et construire un Semantic Model en mode Direct Lake
  • Concevoir et publier un rapport Power BI analytique interactif consommant le Semantic Model
  • Orchestrer, planifier et monitorer un pipeline de données automatisé via Data Factory dans Fabric

Cette formation s’adresse aux :

  • Data Engineers et ingénieurs data souhaitant adopter Microsoft Fabric dans leurs projets d’ingestion et de transformation
  • Consultants et Responsables BI & Data qui veulent approfondir leur expertise sur la plateforme analytique unifiée Microsoft
  • Architectes de données désirant concevoir des solutions Lakehouse et des modèles dimensionnels sur Fabric
  • Développeurs Power BI souhaitant maîtriser le Semantic Model Direct Lake et les bonnes pratiques DAX dans Fabric
  • Notions de SQL (SELECT, JOIN, GROUP BY)
  • Bases de Python ou d’un langage de programmation (lecture de DataFrame, manipulation de données)
  • Compréhension des principes fondamentaux du Cloud Microsoft Azure (bénéfique, non obligatoire)
  • Compte Microsoft 365 avec accès à un tenant Microsoft Fabric activé
  • Capacity Fabric (F SKU) disponible dans le tenant (fournie par l’organisateur)
  • Ordinateur portable ou de bureau avec navigateur web (Microsoft Edge recommandé)
  • Connexion Internet stable
  • Aucune expérience préalable avec Microsoft Fabric n’est nécessaire

Moyens : 

  • Support pédagogique complet (manuel PDF numérique remis à chaque stagiaire)
  • Dataset de travail wind_power_data.csv utilisé tout au long de la formation
  • Accès à l’environnement Fabric fourni

Méthodes :

  • Exposé théorique structuré, démonstration pas à pas par le formateur dans l’interface Fabric actuelle, applications pratiques guidées (21 Applications numérotées), exercices autonomes guidés

Suivi

  • Feuille d’émargement pour les formations sur site et à distance (envoyée par mail à l’entreprise)
  • Certificat de réalisation (pour les OPCO)
  • Attestation individuelle de fin de formation (envoyée par mail au stagiaire)

Évaluation du stagiaire

  • Autoévaluation quelques jours avant l’entrée en formation (niveau de départ, besoins, attentes)
  • 15 QCM techniques basés sur les concepts Microsoft Learn (évaluation théorique)
  • Questions ouvertes d’architecture et mini-cas pratique (évaluation pratique)

Évaluation du formateur et de la formation

  • Questionnaire de satisfaction à chaud en fin de formation
  • Évaluation à froid 3 mois après la formation

Programme détaillé de la formation Microsoft Fabric

Jour 1 (7h) | Microsoft Fabric : Fondamentaux, environnement & ingestion

Matin (9h – 12h30)

  • Introduction & Vue d’Ensemble

    • Qu’est-ce que Microsoft Fabric ?

    • Architecture unifiée

    • Le Fabric Portal

    • Architecture cible du parcours : cas pratique Solution Data Éoliennes

    • Diagramme de la solution complète

    • Application 1 : Se connecter au portail Microsoft Fabric et identifier les zones de l’interface

    • Application 2 : Explorer le switcher de workload et naviguer entre les contextes Data Engineering, Data Factory et Power BI

  • Le Workspace Microsoft Fabric

    • Concept de Workspace
    • Capacity Fabric (F SKU)
    • OneLake
    • Conventions de nommage officielles Microsoft
    • Application 3 : Créer et configurer le Workspace WS_WindPower_Production avec assignment de la Capacity Fabric
    • Application 4 : Explorer OneLake et vérifier les propriétés du Workspace

Après-midi (14h – 17h30)

  • Lakehouse & Architecture Medallion

    • Le Lakehouse Microsoft Fabric
    • Delta Lake
    • Architecture Medallion
    • Comparaison Lakehouse vs Warehouse dans Fabric
    • Application 5 : Créer le Lakehouse Bronz
    • Application 6 : Créer les Lakehouses Silver et Gold
    • Application 7 : Explorer le SQL Analytics Endpoint
  • Ingestion de Données dans le Lakehouse

    • Méthodes d’ingestion disponibles dans Fabric
    • Chargement d’un fichier CSV en table Delta
    • Validation post-ingestion
    • Application 8: Charger wind_power_data.csv dans LH_WindPower_Bronze en table Delta WindPower
    • Application 9 : Valider les données Bronze via le SQL Analytics Endpoint

Bilan Jour 1

À l’issue de cette journée, les participants sauront :

  • Naviguer dans le portail Microsoft Fabric,
  • Configurer un Workspace avec sa Capacity,
  • Créer et structurer des Lakehouses selon l’architecture Medallion, et
  • Ingérer des données CSV en tables Delta avec validation qualité.

Jour 2 (7h) | Transformation, modélisation, reporting & orchestration

Matin (9h – 12h30)

  • Notebooks Apache Spark dans Fabric

    • Les Notebooks Microsoft Fabric
    • Attacher des Lakehouses à un Notebook, notion de Lakehouse par défaut
    • Notebooks vs Dataflow Gen2 : quand choisir quoi ?
    • Lecture/écriture de tables Delta depuis un Notebook
    • Application 10 : Créer et configurer le Notebook NB_Bronze_Silver_Python
  • Transformation Bronze → Silver

    • Nettoyage et normalisation
    • Enrichissement par colonnes dérivées
    • Écriture en couche Silver
    • Application 11 : Écrire et exécuter la transformation complète Bronze → Silver dans le Notebook
  • Modélisation Star Schema Silver → Gold

    • Rappel du modèle
    • Construction des 4 dimensions
    • Construction de la table de faits
    • Validation du Star Schema
    • Application 12 : Créer le Notebook NB_Silver_Gold_Python et générer les 4 tables de dimension dans LH_WindPower_Gold
    • Application 13 : Créer la table de faits FactWindPower et valider l’intégrité référentielle

Après-midi (14h – 17h30)

  • Semantic Model Direct Lake 

    • Semantic Model dans Fabric (ex-« Dataset » Power BI)
    • Les 3 modes de connexion
    • Création d’un Semantic Model Direct Lake depuis un Lakehouse
    • Définition des relations et bonnes pratiques du Star Schema dans Fabric
    • Mesures DAX et colonnes calculées
    • Application 14 : Créer le Semantic Model SM_WindPower_Production depuis LH_WindPower_Gold
    • Application 15 : Définir les 4 relations du Star Schema dans le Model view
    • Application 16 : Créer les 5 mesures DAX
  • Rapport Power BI dans Fabric

    • Power BI dans Fabric
    • Line Chart, KPI Card, Slice, Clustered Bar Chart
    • Bonnes pratiques de mise en page et de formatage dans le Report Builder Fabric
    • Application 17 : Créer le rapport RPT_WindPower_Analysis depuis le Semantic Model, nommer la page « Analyse Production »
    • Application 18 : Ajouter le Line Chart d’évolution de production
    • Application 19 : Ajouter les 3 KPI Cards et les 2 Slicers , tester le cross-filtering
  • Orchestration avec Data Pipeline

    • Data Factory dans Fabric:
    • Modes de déclenchement
    • Monitoring : Run History, logs d’erreur, alertes Email et Microsoft Teams
    • Application 20 : Créer le Pipeline PL_WindPower_Orchestration avec 2 activités Notebook séquentielles
    • Application 21 : Configurer le Schedule quotidien à 07h00 et l’alerte email en cas d’échec : tester via Run History
  • Exercices Guidés & Évaluation

    • Exercice 1 : Créer une mesure DAX Peak Production et l’afficher dans un Card visuel sensible aux Slicers
    • Exercice 2 : Ajouter une colonne wind_speed_normalized dans la couche Silver
    • Exercice 3 : Créer une page de rapport « Analyse Régionale » avec un Clustered Bar Chart, un Slicer Mois et une Table de détail
    • Évaluation théorique : 15 QCM techniques + 3 questions ouvertes d’architecture + mini-cas pratique de diagnostic pipeline

Bilan Jour 2

À l’issue de cette journée, les participants maîtriseront :

  • Les transformations PySpark (Bronze → Silver → Gold),
  • La modélisation en Star Schema, la création d’un Semantic Model Direct Lake et d’un rapport Power BI analytique,
  • Ainsi que l’orchestration automatisée via Data Pipeline avec monitoring et alertes.