Module Technique 19 – Projet Central : Tarification ML

XGBoost, SHAP et comparaison GLM vs ML

projet
xgboost
shap
Auteur·rice

Francois Boussengui

Date de publication

25 mars 2026

1 XGBoost Poisson/Gamma pour la tarification

XGBoost Poisson/Gamma pour la tarification : meilleure capture des interactions et non-linearites.

Point cle

Maitriser cet outil est essentiel pour industrialiser le projet central.


2 Optimisation hyperparametres avec Optuna : n_estimators

Optimisation hyperparametres avec Optuna : n_estimators, max_depth, learning_rate, min_child_weight.


3 SHAP values : interpreter chaque prediction

SHAP values : interpreter chaque prediction, waterfall plot, summary plot, dependence plot.


4 Comparaison GLM vs XGBoost : Gini

Comparaison GLM vs XGBoost : Gini, lift curve, stabilite dans le temps, interpretabilite.


5 Decision documentee dans MLflow : quel

Decision documentee dans MLflow : quel modele deployer et pourquoi.


Synthese

5.0.1 Les points essentiels

  1. XGBoost Poisson/Gamma pour la tarification : meilleure capture
  2. Optimisation hyperparametres avec Optuna : n_estimators, max_depth, learning_rate
  3. SHAP values : interpreter chaque prediction, waterfall plot
  4. Comparaison GLM vs XGBoost : Gini, lift curve
  5. Decision documentee dans MLflow : quel modele deployer

Auto-evaluation

Comment appliquer ce concept dans le projet central ?

Comment appliquer ce concept dans le projet central ?

Comment appliquer ce concept dans le projet central ?

Comment appliquer ce concept dans le projet central ?


<- Retour a la Semaine 19 Voir la Fiche de travail ->