Vue d’ensemble
Volet Métier
⏱️ Environ 3 heures
Module 5 — Fréquence et Sévérité
- Décomposition fréquence × sévérité
- Modélisation de la fréquence (loi de Poisson)
- Modélisation de la sévérité (Gamma, lognormale)
- Estimation par maximum de vraisemblance
- Validation et diagnostics (QQ-plot, tests)
Volet Technique
⏱️ Environ 3 heures
Module Technique 5 — AWS — Introduction et S3
- Pourquoi le cloud AWS pour la data science
- Services fondamentaux (S3, EC2, RDS, Lambda)
- S3 : buckets, objets et versioning
- AWS CLI : opérations courantes
- boto3 : interagir avec S3 en Python
Objectifs de la semaine
À la fin de cette semaine, tu seras capable de :
Côté métier :
- Décomposition fréquence × sévérité
- Modélisation de la fréquence (loi de Poisson)
- Modélisation de la sévérité (Gamma, lognormale)
- Estimation par maximum de vraisemblance
- Validation et diagnostics (QQ-plot, tests)
Côté technique :
- Pourquoi le cloud AWS pour la data science
- Services fondamentaux (S3, EC2, RDS, Lambda)
- S3 : buckets, objets et versioning
- AWS CLI : opérations courantes
- boto3 : interagir avec S3 en Python
Planning suggéré
| Jour | Matin (Métier) | Après-midi (Technique) |
|---|---|---|
| Jour 1 | Décomposition fréquence × sévérité | Pourquoi le cloud AWS pour la data science |
| Jour 2 | Modélisation de la fréquence (loi de Poisson) | Services fondamentaux (S3, EC2, RDS, Lambda) |
| Jour 3 | Modélisation de la sévérité (Gamma, lognormale) | S3 : buckets, objets et versioning |
| Jour 4 | Estimation par maximum de vraisemblance | AWS CLI : opérations courantes |
| Jour 5 | Débriefing et validation | Livrables |