📦 Livrables
:::{.livrable-title}📊 Livrable 1 — Modèle GLM complet::: :::{.livrable-status .required}Obligatoire:::
Notebook Python implémentant :
- GLM Poisson (fréquence) + GLM Gamma (sévérité)
- Tableau de relativités par variable
- Lift curve et calcul du Gini
- Comparaison avec un modèle XGBoost
- Prime pure prédite par segment
:::{.livrable-title}📝 Livrable 2 — Examen blanc AWS commenté::: :::{.livrable-status .required}Obligatoire:::
Réaliser un examen blanc (Tutorials Dojo ou AWS Skill Builder). Document avec : score obtenu, questions ratées, explication de la bonne réponse, points à réviser.
:::{.livrable-title}🏗️ Livrable 3 — Architecture AWS du projet central::: :::{.livrable-status .required}Obligatoire:::
Mettre à jour le schéma d’architecture du projet central en intégrant toutes les connaissances AWS acquises (semaines 5-10). Justifier chaque choix de service.
🏋️ Exercices
📝 Exercice M1 — Interpréter un GLM
Un GLM Poisson de fréquence auto donne les coefficients suivants :
| Variable | Coefficient | p-value |
|---|---|---|
| Intercept | -2.50 | < 0.001 |
| age_18-25 | 0.62 | < 0.001 |
| age_56+ | 0.18 | 0.042 |
| zone_Paris | 0.37 | < 0.001 |
| puissance_8+ | 0.10 | 0.285 |
Questions :
- Quelle est la fréquence de base ?
- Quelle est la relativité des jeunes conducteurs ?
- La variable puissance est-elle significative ?
- Quelle est la fréquence prédite pour un jeune parisien ?
- Fréquence de base = \(\exp(-2.50) = 0.082\) (8.2%)
- Relativité jeunes = \(\exp(0.62) = 1.86\) (+86%)
- Puissance 8+ : p-value = 0.285 > 0.05 → non significatif. À retirer ou regrouper.
- Jeune parisien : \(\exp(-2.50 + 0.62 + 0.37) = \exp(-1.51) = 0.221\) (22.1%)
☁️ Exercice T1 — QCM AWS
- Une entreprise veut stocker 10 To de données accédées 2 fois par an. Quel service ?
- Comment sécuriser une API publique contre les attaques DDoS ?
- Quelle est la différence entre ALB et NLB ?
- S3 Glacier ou S3 Glacier Deep Archive (accès très rare, coût minimal)
- AWS WAF (Web Application Firewall) + AWS Shield (protection DDoS) devant un ALB ou CloudFront
- ALB (Application LB) : couche 7 (HTTP), routing par URL/header. NLB (Network LB) : couche 4 (TCP), ultra-faible latence, IP statique
🔗 Pont métier-technique
🤔 Réflexion
- Comment déployer ton modèle GLM sur AWS ? (Lambda pour le scoring temps réel, EC2 pour le batch)
- Quels services AWS utiliserais-tu pour stocker les données, entraîner le modèle, et servir les prédictions ?
- Comment la certification AWS valorise-t-elle ton profil de data scientist en assurance ?
✅ Checklist
- Module Métier 10 terminé (GLM avancé, lift curves, GLM vs ML)
- Module Technique 10 terminé (révision AWS, examen blanc)
- Livrable 1 (modèle GLM complet)
- Livrable 2 (examen blanc commenté)
- Livrable 3 (architecture AWS mise à jour)
- Exercices réalisés
- Fin du Bloc III tarification et de l’axe technique AWS