Bienvenue à ProSkills IT – Formations professionnelles au Togo
Fiche du cours
Titre :
ML400 - Machine Learning Avancé (Ensembles, Time Series & MLOps)
Description :
Approfondir le Machine Learning appliqué au niveau production : feature engineering avancé, tuning par optimisation bayésienne, ensembles (XGBoost/LightGBM/CatBoost, stacking/blending), calibration & seuils, données déséquilibrées, séries temporelles (CV temporelle, features retardées), interprétabilité (PDP/ICE, SHAP), anomalies (IsolationForest) et MLOps : suivi d’expériences (MLflow), validation de données, serving (API), monitoring & drift.
Objectifs :
- Concevoir des pipelines robustes (prétraitements + modèle) en évitant la data leakage.
- Maîtriser hyperparameter tuning (recherche bayésienne), cross-validation avancée (stratifiée, time-based).
- Traiter le déséquilibre (class weights, SMOTE/undersampling), calibrer les probabilités et choisir les seuils selon le coût.
- Exploiter des ensembles modernes (GBDT : XGBoost/LightGBM/CatBoost) et des méta-modèles (stacking/blending).
- Gérer séries temporelles : features glissantes, backtesting, CV bloquée, fuites temporelles.
- Interpréter & auditer : importances, PDP/ICE, SHAP, biais/équité (aperçu).
- Passer en MLOps : MLflow (expériences/modèles), Great Expectations (qualité des données), API (FastAPI – concept), monitoring & drift (concepts), packaging & reproductibilité.
Chapitres :
- Pipelines & anti-leakage : ColumnTransformer, ordre des étapes, CV avancée
- Tuning avancé : recherche bayésienne, espaces d’hyperparamètres, early stopping
- Déséquilibre & coût : métriques (PR/F1), resampling (SMOTE), coûts & seuils
- Calibration : Platt/Isotonic, fiabilité, décision au seuil
- Ensembles GBDT I : XGBoost/LightGBM/CatBoost – réglages clés & régularisation
- Ensembles GBDT II : stacking/blending, bagging vs boosting, leakage en stacking
- Time Series I : features (lags, rolling stats), split temporel, backtesting
- Time Series II : covariables, drift saisonnier, évaluation réaliste
- Unsupervised/Anomalies : IsolationForest, One-Class SVM, seuils & alertes
- Interprétabilité : PDP/ICE, SHAP local/global, limites & pièges
- MLOps I : MLflow (traçage runs, modèles), Great Expectations (tests de données)
À la fin :
À l’issue du cours, vous saurez mettre à l’échelle vos workflows ML : tuner efficacement, stabiliser les performances (CV réaliste, séries temporelles), expliquer les décisions (SHAP), gérer déséquilibre & calibration, et préparer la production (suivi d’expériences, validation des données, plan de serving/monitoring) — un livrable portfolio-ready.
Vous automatiserez le suivi et la comparaison des modèles (MLflow) pour garantir la reproductibilité.
Vous produirez une documentation et un runbook opérationnel (métriques, seuils d’alerte, gestion du drift) facilitant la maintenance et l’amélioration continue.
Vous automatiserez le suivi et la comparaison des modèles (MLflow) pour garantir la reproductibilité.
Vous produirez une documentation et un runbook opérationnel (métriques, seuils d’alerte, gestion du drift) facilitant la maintenance et l’amélioration continue.