{Decision Tree}

# CHAPTER 1
# CHAPTER 1

Définition

Un arbre de décision est un algorithme d'apprentissage supervisé qui organise les données sous forme d'un arbre. Chaque noeud pose une question sur une caractéristique, permettant de segmenter les données jusqu'à obtenir une prédiction ou une classification aux feuilles.

Example du Principe

# CHAPTTER 1
# CHAPTER 1

Formule  & Cas d'utilisation

Utilisée  pour la construction d'arbres de décision en apprentissage supervisé :

  • La classification

  • La régression

  • La sélection de caractéristiques

{Random Forest}

# CHAPTER 2

Définition

Random Forest est un algorithme d'ensemble qui combine de nombreux arbres de décision construits sur des échantillons et des sous-ensembles de caractéristiques aléatoires pour obtenir des prédictions robustes.

# CHAPTER 2

Example du Principe

# CHAPTTER 2
# CHAPTER 2

Formules  

Échantillonnage bootstrap:

Sélection aléatoire de caractéristiques (Random Subspace):

Indice de pureté – Impureté de Gini:

Gain d'impureté lors d'un split:

# CHAPTER 2

Formules  

Prédiction d'un arbre pour la régression:

Prédiction par ensemble d'arbres (Random Forest)

Classification par ensemble d'arbres (Random Forest)

# CHAPTER 2

Cas d'utilisation

Random Forest est largement utilisé pour résoudre des problèmes de classification et de régression. Il intervient notamment dans :

  • Classification d'images et reconnaissance d'objets
  • Détection de fraudes et sécurité
  • Diagnostics médicaux et analyse de données biomédicales
  • Prédictions financières et segmentation de clientèle
  • Sélection de variables et analyse exploratoire de données
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN
FIN

Code

By guillaume benhamou