Introducción a machine learning
MT3006 - Robótica 2
Dos caras de la misma moneda
Versus
¿Realidad?
Un poco de ambos
¿Dónde lo encontramos?
Algunas aplicaciones
sistemas de recomendación
procesamiento natural de lenguaje
medicina y bioquímica computacional
reconocimiento de imágenes y visión por computadora
Generación de contenido sintético
Generación de contenido sintético
¿Qué es entonces machine learning?
Partamos de un ejemplo simple
¿Cómo clasificar perros y gatos?
Ingeniería tradicional es top-down
principios fundamentales
matemática
física
química
electrónica
mecánica
etc.
Machine learning es bottom-up
el sistema consume data y aprende el modelo
data
Aprender se refiere a emplear un conjunto de ejemplos para inferir algo acerca del proceso subyacente
Tipos de machine learning
Data como punto de inicio
datos, observaciones o ejemplos
Data como punto de inicio
feature vector
vector de características
Ejemplo: clasificación
Ejemplo: clasificación
Ejemplo: clasificación
perro
gato
perro
perro
gato
gato
Ejemplo: regresión
precio ($k)
área
superficial \((m^3)\)
50
100
150
200
250
150
300
Ejemplo: regresión
precio ($k)
área
superficial \((m^3)\)
50
100
150
200
250
150
300
Ejemplo: regresión
precio ($k)
área
superficial \((m^3)\)
50
100
150
200
250
150
300
225
Ejemplo: regresión
precio ($k)
área
superficial \((m^3)\)
50
100
150
200
250
150
300
225
Estos son ejemplos de aprendizaje supervisado (supervised learning)
Supervised learning
datos junto con...
Supervised learning
labels |
etiquetas
Supervised learning
training data
training set
Supervised learning
objetivo:
explicación
+
predicción
Supervised learning
objetivo:
explicación
+
predicción
Clasificación: \(\quad y\in\{1,2,...,m\}\)
Regresión: \(\quad y \in \mathbb{R}\)
Ejemplo: clustering
Ejemplo: clustering
Ejemplo: diffusion and denoising
Ejemplo: diffusion and denoising
Estos son ejemplos de aprendizaje no supervisado (unsupervised learning) y/o autosupervisado
Unsupervised [self-supervised] learning
encontrar y/o comprender estructura o distribución
Unsupervised [self-supervised] learning
Ejemplo: robots jugando fútbol
Reinforcement learning
environment
policy
actor
action
state
reward
LeCun cake analogy
unsupervised
(self-supervised) learning
supervised learning
reinforcement learning
Más sobre supervised learning partiendo de un ejemplo conocido
¿Modelo que prediga \(y_i\) para un \(x_i\) desconocido?
¿Modelo que prediga \(y_i\) para un \(x_i\) desconocido?
¿Modelo que prediga \(y_i\) para un \(x_i\) desconocido?
trivial, pero con esto ya entrenamos un modelo de machine learning
- El modelo se encontró con data.
- El modelo no sólo explica los ejemplos, sino que permite predicciones.
- Machine learning \(\approx\) inferencia estadística.
¿Por qué?
- El modelo se encontró con data.
- El modelo no sólo explica los ejemplos, sino que permite predicciones.
- Machine learning \(\approx\) inferencia estadística.
¿Por qué?
- Esto, sin embargo, esconde sutilezas fundamentales.
Formalizando conceptos
Emplear regresión lineal implica resolver
¿Cómo se ve esto en el proceso?
se prueban distintas hipótesis
(líneas rectas)
se prueban distintas hipótesis
(líneas rectas)
se prueban distintas hipótesis
(líneas rectas)
se prueban distintas hipótesis
(líneas rectas)
hasta encontrar la mejor
se prueban distintas hipótesis
(líneas rectas)
hasta encontrar la mejor
¿Cómo?
encontrando la que minimice la discrepancia (pérdida) entre el modelo y los datos de entrenamiento
encontrando la que minimice la discrepancia (pérdida) entre el modelo y los datos de entrenamiento
En general, se da una situación similar en todo problema de supervised learning
\(\Rightarrow\) optimización de pérdida
(loss optimization)
Optimización de pérdida
Optimización de pérdida
parámetros del modelo (a encontrar)
Optimización de pérdida
función de pérdida (loss function)
función de costo o función objetivo (optimización)
Optimización de pérdida
sample loss
Optimización de pérdida
hipótesis (\(f_1,f_2,...,f_K\) para el caso vectorial)
observaciones
etiquetas | labels (\(y_k^{(i)}\) con \(k=1,...,K\) para el caso vectorial)
Optimización de pérdida
se emplea todo el training set
este caso particular se conoce como la empirical loss (se efectúa una sumatoria desde \(1\) hasta \(K\) en el caso vectorial)
Optimización de pérdida
- Si bien este setup es adecuado, requiere que seleccionemos la hipótesis (no nos da ninguna ventaja sobre la regresión "normal").
- Sin embargo, esto pudiera potenciarse si existiese una hipótesis lo suficientemente versátil como para acoplarse a múltiples situaciones...
Un preámbulo histórico
Referencias
- S. Prince, Understanding Deep Learning, capítulos 1 y 2.
MT3006 - Lecture 5 (2024)
By Miguel Enrique Zea Arenales
MT3006 - Lecture 5 (2024)
- 109