Formation Microsoft Fabric
- Accueil
- Formations
- Formations Microsoft BI
- Formation – Microsoft Fabric
Finalité de la formation Microsoft Fabric
Cette formation permet de découvrir les fondamentaux et les compétences avancées de Microsoft Fabric et d’explorer l’utilisation de ses différents composants. Elle vous prépare à concevoir, transformer et orchestrer des pipelines de données de bout en bout sur la plateforme unifiée Microsoft Fabric depuis l’ingestion de données brutes jusqu’à la publication d’un rapport Power BI analytique renforçant ainsi votre expertise dans le domaine de la donnée et de la BI moderne dans le cloud Microsoft.
Objectifs pédagogiques opérationnels de la formation Microsoft Fabric
À l’issue de la formation, les stagiaires seront capables de :
- Maîtriser les fondamentaux de la plateforme Microsoft Fabric et de son architecture unifiée (OneLake, Workloads, Capacity)
- Créer et configurer des Lakehouses selon l’architecture Medallion (Bronze / Silver / Gold
- Ingérer, transformer et enrichir des données à l’aide de Notebooks Apache Spark (PySpark)
- Modéliser un schéma en étoile (Star Schema) et construire un Semantic Model en mode Direct Lake
- Concevoir et publier un rapport Power BI analytique interactif consommant le Semantic Model
- Orchestrer, planifier et monitorer un pipeline de données automatisé via Data Factory dans Fabric
Public concerné par la formation Microsoft Fabric
Cette formation s’adresse aux :
- Data Engineers et ingénieurs data souhaitant adopter Microsoft Fabric dans leurs projets d’ingestion et de transformation
- Consultants et Responsables BI & Data qui veulent approfondir leur expertise sur la plateforme analytique unifiée Microsoft
- Architectes de données désirant concevoir des solutions Lakehouse et des modèles dimensionnels sur Fabric
- Développeurs Power BI souhaitant maîtriser le Semantic Model Direct Lake et les bonnes pratiques DAX dans Fabric
Pré-requis de la formation Microsoft Fabric
- Notions de SQL (SELECT, JOIN, GROUP BY)
- Bases de Python ou d’un langage de programmation (lecture de DataFrame, manipulation de données)
- Compréhension des principes fondamentaux du Cloud Microsoft Azure (bénéfique, non obligatoire)
- Compte Microsoft 365 avec accès à un tenant Microsoft Fabric activé
- Capacity Fabric (F SKU) disponible dans le tenant (fournie par l’organisateur)
- Ordinateur portable ou de bureau avec navigateur web (Microsoft Edge recommandé)
- Connexion Internet stable
- Aucune expérience préalable avec Microsoft Fabric n’est nécessaire
Moyens et méthodes pédagogiques de la formation Microsoft Fabric
Moyens :
- Support pédagogique complet (manuel PDF numérique remis à chaque stagiaire)
- Dataset de travail wind_power_data.csv utilisé tout au long de la formation
- Accès à l’environnement Fabric fourni
Méthodes :
- Exposé théorique structuré, démonstration pas à pas par le formateur dans l’interface Fabric actuelle, applications pratiques guidées (21 Applications numérotées), exercices autonomes guidés
Suivi et évaluation de la formation Microsoft Fabric
Suivi
- Feuille d’émargement pour les formations sur site et à distance (envoyée par mail à l’entreprise)
- Certificat de réalisation (pour les OPCO)
- Attestation individuelle de fin de formation (envoyée par mail au stagiaire)
Évaluation du stagiaire
- Autoévaluation quelques jours avant l’entrée en formation (niveau de départ, besoins, attentes)
- 15 QCM techniques basés sur les concepts Microsoft Learn (évaluation théorique)
- Questions ouvertes d’architecture et mini-cas pratique (évaluation pratique)
Évaluation du formateur et de la formation
- Questionnaire de satisfaction à chaud en fin de formation
- Évaluation à froid 3 mois après la formation
Programme détaillé de la formation Microsoft Fabric
Jour 1 (7h) | Microsoft Fabric : Fondamentaux, environnement & ingestion
Matin (9h – 12h30)
Introduction & Vue d’Ensemble
Qu’est-ce que Microsoft Fabric ?
Architecture unifiée
Le Fabric Portal
Architecture cible du parcours : cas pratique Solution Data Éoliennes
Diagramme de la solution complète
Application 1 : Se connecter au portail Microsoft Fabric et identifier les zones de l’interface
Application 2 : Explorer le switcher de workload et naviguer entre les contextes Data Engineering, Data Factory et Power BI
Le Workspace Microsoft Fabric
- Concept de Workspace
- Capacity Fabric (F SKU)
- OneLake
- Conventions de nommage officielles Microsoft
- Application 3 : Créer et configurer le Workspace WS_WindPower_Production avec assignment de la Capacity Fabric
- Application 4 : Explorer OneLake et vérifier les propriétés du Workspace
Après-midi (14h – 17h30)
Lakehouse & Architecture Medallion
- Le Lakehouse Microsoft Fabric
- Delta Lake
- Architecture Medallion
- Comparaison Lakehouse vs Warehouse dans Fabric
- Application 5 : Créer le Lakehouse Bronz
- Application 6 : Créer les Lakehouses Silver et Gold
- Application 7 : Explorer le SQL Analytics Endpoint
Ingestion de Données dans le Lakehouse
- Méthodes d’ingestion disponibles dans Fabric
- Chargement d’un fichier CSV en table Delta
- Validation post-ingestion
- Application 8: Charger wind_power_data.csv dans LH_WindPower_Bronze en table Delta WindPower
- Application 9 : Valider les données Bronze via le SQL Analytics Endpoint
Bilan Jour 1
À l’issue de cette journée, les participants sauront :
- Naviguer dans le portail Microsoft Fabric,
- Configurer un Workspace avec sa Capacity,
- Créer et structurer des Lakehouses selon l’architecture Medallion, et
- Ingérer des données CSV en tables Delta avec validation qualité.
Jour 2 (7h) | Transformation, modélisation, reporting & orchestration
Matin (9h – 12h30)
Notebooks Apache Spark dans Fabric
- Les Notebooks Microsoft Fabric
- Attacher des Lakehouses à un Notebook, notion de Lakehouse par défaut
- Notebooks vs Dataflow Gen2 : quand choisir quoi ?
- Lecture/écriture de tables Delta depuis un Notebook
- Application 10 : Créer et configurer le Notebook NB_Bronze_Silver_Python
Transformation Bronze → Silver
- Nettoyage et normalisation
- Enrichissement par colonnes dérivées
- Écriture en couche Silver
- Application 11 : Écrire et exécuter la transformation complète Bronze → Silver dans le Notebook
Modélisation Star Schema Silver → Gold
- Rappel du modèle
- Construction des 4 dimensions
- Construction de la table de faits
- Validation du Star Schema
- Application 12 : Créer le Notebook NB_Silver_Gold_Python et générer les 4 tables de dimension dans LH_WindPower_Gold
- Application 13 : Créer la table de faits FactWindPower et valider l’intégrité référentielle
Après-midi (14h – 17h30)
Semantic Model Direct Lake
- Semantic Model dans Fabric (ex-« Dataset » Power BI)
- Les 3 modes de connexion
- Création d’un Semantic Model Direct Lake depuis un Lakehouse
- Définition des relations et bonnes pratiques du Star Schema dans Fabric
- Mesures DAX et colonnes calculées
- Application 14 : Créer le Semantic Model SM_WindPower_Production depuis LH_WindPower_Gold
- Application 15 : Définir les 4 relations du Star Schema dans le Model view
- Application 16 : Créer les 5 mesures DAX
Rapport Power BI dans Fabric
- Power BI dans Fabric
- Line Chart, KPI Card, Slice, Clustered Bar Chart
- Bonnes pratiques de mise en page et de formatage dans le Report Builder Fabric
- Application 17 : Créer le rapport RPT_WindPower_Analysis depuis le Semantic Model, nommer la page « Analyse Production »
- Application 18 : Ajouter le Line Chart d’évolution de production
- Application 19 : Ajouter les 3 KPI Cards et les 2 Slicers , tester le cross-filtering
Orchestration avec Data Pipeline
- Data Factory dans Fabric:
- Modes de déclenchement
- Monitoring : Run History, logs d’erreur, alertes Email et Microsoft Teams
- Application 20 : Créer le Pipeline PL_WindPower_Orchestration avec 2 activités Notebook séquentielles
- Application 21 : Configurer le Schedule quotidien à 07h00 et l’alerte email en cas d’échec : tester via Run History
Exercices Guidés & Évaluation
- Exercice 1 : Créer une mesure DAX Peak Production et l’afficher dans un Card visuel sensible aux Slicers
- Exercice 2 : Ajouter une colonne wind_speed_normalized dans la couche Silver
- Exercice 3 : Créer une page de rapport « Analyse Régionale » avec un Clustered Bar Chart, un Slicer Mois et une Table de détail
- Évaluation théorique : 15 QCM techniques + 3 questions ouvertes d’architecture + mini-cas pratique de diagnostic pipeline
Bilan Jour 2
À l’issue de cette journée, les participants maîtriseront :
- Les transformations PySpark (Bronze → Silver → Gold),
- La modélisation en Star Schema, la création d’un Semantic Model Direct Lake et d’un rapport Power BI analytique,
- Ainsi que l’orchestration automatisée via Data Pipeline avec monitoring et alertes.