L'IA ce n'est pas de la magie!!

@_Akanoa_
https://lafor.ge

Yannick Guern


Centrons le sujet










Machine Learning
Comment la machine s'adapte à son environnement ?
Passage par le biologique










Et la machine dans tout ça ?






Réseau de neurones artificiels








Attentes


Perceptron et Multilayer Perceptron











Fonction d'activation : Sigmoid


Configuration du réseau







Données quantitatives et récapitulatif



Écart entre les attentes et la réalité


Corpus d'entraînement

Fonction de Coût
Minimiser la fonction de Coût
Pour 1 poids




Pour 2 poids







On généralise pour le réseau entier





Feed Forward


Natural Language Processing
Encoder les concepts







Comparer les choses par rapport aux concepts

Se balader dans l'espace des concepts


Dimensions



Encoder le langage

Embedding

Tokenisation

Vraie tokenisation
https://tokens-lpj6s2duga-ew.a.run.app/
Guillaume Laforge:

Notre objectif

Comprendre le langage des humains

Interroger les tokens environnant

Répondre au question posées





Matrice d'attention

Enrichir un token par rapport à son environnement



Vers le Transformer


Le fameux contexte

MLP : Enrichir un Token

L'avancé majeur de Genarative Pretrained Transformer

On récupère le dernier

Revenir au langage

Schéma de principe d'un GPT

Comment l'entraîner ?
Pour aller plus loin
3Blue1Brown :
https://www.3blue1brown.com/topics/neural-networks
Attention
- https://ig.ft.com/generative-ai/
- https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf
- https://slds-lmu.github.io/seminar_nlp_ss20/attention-and-self-attention-for-nlp.html
Tokenization: Guillaume LaForge
https://tokens-lpj6s2duga-ew.a.run.app/
Merci à toutes et tous 😃


@_Akanoa_
https://lafor.ge



Sunny Tech 2024
By akanoa
Sunny Tech 2024
- 368