Semaine 5

Fréquence et Sévérité & AWS — Introduction et S3

Vue d’ensemble

🏢Volet Métier
⏱️ Environ 3 heures

Module 5 — Fréquence et Sévérité

  • Décomposition fréquence × sévérité
  • Modélisation de la fréquence (loi de Poisson)
  • Modélisation de la sévérité (Gamma, lognormale)
  • Estimation par maximum de vraisemblance
  • Validation et diagnostics (QQ-plot, tests)
🛠️Volet Technique
⏱️ Environ 3 heures

Module Technique 5 — AWS — Introduction et S3

  • Pourquoi le cloud AWS pour la data science
  • Services fondamentaux (S3, EC2, RDS, Lambda)
  • S3 : buckets, objets et versioning
  • AWS CLI : opérations courantes
  • boto3 : interagir avec S3 en Python

Objectifs de la semaine

À la fin de cette semaine, tu seras capable de :

Côté métier :

  1. Décomposition fréquence × sévérité
  2. Modélisation de la fréquence (loi de Poisson)
  3. Modélisation de la sévérité (Gamma, lognormale)
  4. Estimation par maximum de vraisemblance
  5. Validation et diagnostics (QQ-plot, tests)

Côté technique :

  1. Pourquoi le cloud AWS pour la data science
  2. Services fondamentaux (S3, EC2, RDS, Lambda)
  3. S3 : buckets, objets et versioning
  4. AWS CLI : opérations courantes
  5. boto3 : interagir avec S3 en Python

Planning suggéré

Jour Matin (Métier) Après-midi (Technique)
Jour 1 Décomposition fréquence × sévérité Pourquoi le cloud AWS pour la data science
Jour 2 Modélisation de la fréquence (loi de Poisson) Services fondamentaux (S3, EC2, RDS, Lambda)
Jour 3 Modélisation de la sévérité (Gamma, lognormale) S3 : buckets, objets et versioning
Jour 4 Estimation par maximum de vraisemblance AWS CLI : opérations courantes
Jour 5 Débriefing et validation Livrables

Accès aux modules


← Retour à la formation