Nicolas Rochet 2022
axone
sortie
potentiel d'action
fonction d'activation
fonction de transfert
corps cellulaire
poids
synapses
dendrites
entrées
Mc Culloh & Pitts 1943
Rosenblatt 1957
Entrées
Sorties
resultats
attendus
Erreur
retro-propagation
fonction de perte
1. Fixer les poids w initiaux du réseau
2. Répéter jusqu'à ce qu'un minimum de la fonction de coût J soit obtenu :
a. Mélanger aléatoirement les observations
b. Pour chaque observation faire :
w = w - a . gradient(J)
Auto encodeur
Réseau récurrent (RNN)
Réseau convolutif (CNN)
Réseau adversarial (GAN)
Nombre de neurones par couche
Nombre de couches cachées
fonction d'activation
poids
biais
Paramètres
Hyper paramètres
initialisation
des poids
fonction de coût (loss)
Nombre de neurones par couche
Nombre de couches cachées
vitesse d'apprentissage
nombre d'iterations
taille des batch
dropout
...
...
...
batchs de données
Idée: "éteindre" aléatoirement pendant l'apprentissage une proportion de neurones
dropout
retro-propagation
Différents types de 'cellules'
Deep Reinforcement Learning
Convolutif
Différents types d'architectures
récurrent
à mémoire
Combiner à d'autres méthodes
Convolution
CNN
RNN
Autoencodeur
GAN
LSTM
ResNet
Deep Recomander systems
...
Transformers
Mécanismes d'attention
sélection
de features
extraction automatique
de features
sélection
de features
Attention : Cela ne garantit pas de trouver les paramètres optimaux pour obtenir la précision voulue de cette approximation
Du fait de leur architecture qui tend à être de plus en plus profonde (un très grand nombre de paramètres), ce sont des modèles difficilement interprétables
Scikit-learn
TensorFlow
Torch / PyTorch
H2O.ai
CNTK
Microsoft Azure ML
Amazon Machine Learning
...
Google Cloud AI
Python
JavaScript
Lua
GPU
TPU
Cloud
CPU
...
Ecosystème Hadoop
Stockage distribué
calcul distribué
Modèle de calcul
BIG DATA
CALCUL
Microsoft Azure ML
Amazon Machine Learning
Google Cloud AI
OVH
Cuda