a little bit ML

Arvin Liu

What is Target?

perfect model

X

(data)

Y

(label or sth)

假設存在一個這樣的東西
(也就是X和Y有某種關係。)

perfect model

X

(data)

Y

(label or sth)

乾脆直接找完美模型?

perfect model

不,這件事一般來說不太可能。

perfect model

X

(data)

Y

(label or sth)

找出一個還可以的模型!

還行的model

Y'

(你預測的)

希望接近

Preface : Linear Regression

利用x找出y !

利用x,y 找出 z !

沒錯,有限維度都可以變成一個大X。

X(輸入資訊) @ w(回歸曲線) = y (實際值)

w: 學完的是參數

利用更新w的參數,把資料預測到完美。

perfect model

X

(data)

Y

(label or sth)

找出一個還可以的模型!

還行的model

Y'

(你預測的)

希望接近

(最小平方法)

X

(data)

深入model...

還行的model

Y'

(你預測的)

還行的model

 

 

演算法

(Algorithm)

參數θ

(Parameters)

線性回歸(lin reg)

學習出來的w線

大致上的兩步流程

1. model.fit

選擇一個方法,把資料丟給model去找出最佳算法。

model.fit

X-train

(data)

正在學θ
的model

Y-train

(你預測的)

想辦法做到最好!

2. model.predict

給定你想問的資料,把資料丟給model去找出最佳解答。

model.predict

X-train

學完θ
的model

Y-train

X-test

Y-test

Linear Regression(線性回歸)有公式,那有沒有沒有公式的演算法呢?

事實上,
有公式才是奇蹟!

那該如何得到好的θ

Gradient Descent
(梯度下降法)

Gradient Descent
(梯度下降法)

Target 是什麼?

y和y'要長的像。

怎樣才叫做"像"?

L2_loss:(y-y')^2 越小越像。
L1_loss:|y-y'| 越小越像。
Likelihood (binary):∏(y)(1-y')

"像"有什麼樣的特性?

損失函數(loss function) 很小。
通常這個時候微分接近零。

記得微積分取min的時候嘛?

Little Example

請找出 min x^2-x+5

奇怪?

微分=0不是有好幾種狀況嘛?

saddle point / min / max

Little Example 2

請找出
min (x-2)(x-1)(x+1)(x+2)

Little Example 3

每次要走多大步?

a little bit ML

By Arvin Liu

a little bit ML

  • 751