Perceptron
Marcelo Finger Alan Barzilay

Objetivo: aprender função f tal que f(x) ≈ y

Regressão: y é ordenado
Classificação: y é categórico
Aprendizado Supervisionado
Dados: conjunto de pares \((x_1,y_1), \dots , (x_N,y_N) \)
onde \(x_i\) é uma entrada d-dimensional \(x_i = (x_{i}^1, x_{i}^2, \dots, x_{i}^d)\), e \(y\) é a variável objetivo
K Nearest Neighboors
Exemplos

Decision Trees
<a
\(\geq\)a
\(\geq\)b
<b
Classificadores lineares
Perceptron
\ perceptron( w,x) =\begin{cases}
\ \ \ 1 & se\mathrm{,} \ x\cdotp w\ >0\\
-1 & se\mathrm{,} \ x\cdotp w\ < 0
\end{cases}
Classifica pontos de acordo com um hiperplano definido por \(w\)

Classificadores lineares
Algoritmo Perceptron
Como escolher um hiperplano para um conjunto de dados?

Classificadores lineares
Algoritmo Perceptron

Assumindo que os pontos sejam linearmente separáveis, tome um hiperplano \(w\) aleatório e repita até convergir:
- Escolha um par \((x_i,y_i)\)
- Se \(w\cdotp y_i\cdotp x_i \leq 0\):
- \(w = w + y_i\cdotp x_i\)
Problemas com Perceptron Clássico
- Separabilidade: se dados não são linearmente separáveis o algoritmo não converge
- Margens pequenas: O hiperplano gerado pode ter uma margem baixa o que leva a uma baixa generalização
- Nenhuma medida de confiança
Perceptron
Probabilistico
Proxima aula!
2.1 perceptron
By barzilay
2.1 perceptron
- 89