終於可以講深度學習ㄌ
久仰大名w
深度學習聽起來很強
但其實並沒有想像中那麼複雜w
你們那麼電
這應該輕輕鬆鬆ㄅ
當我們考慮一個Neural Network
如果Hidden layers較少,我們會說他是個
Shallow Neural Network
如果Hidden layers較多,我們會說他是個
Deep Neural Network
而這就是Deep Learning的由來
由Neural Network來擷取Features!
我們該如何做這件事ㄋ
其實很明顯
就只是我們之前在做Neural Network
多重複幾次就好了(茶
可以去翻一下之前的Slides
我們一樣會透過Forward prop, Back prop
計算Cost和Gradient
激勵函數
為了讓Neural Network中包含非線性方程式
e.g.
你們很熟ㄉ
\(sigmoid(z) = \frac{1}{1 + e^{-z}}\)
常見的Activation function:
softmax 之類ㄉ...
WHY?
為了避免Neural Network退化成線性方程式
這次我們會用用看ReLU
也是現在Deep Learning領域下
最常用到的Activation function
因為計算迅速
所以得到大家的芳心
By lemonilemon