Machine learning

社課 - 8

lecturer : lemon

topic : DNN&Activation

Deep learning

終於可以講深度學習ㄌ

久仰大名w

深度學習聽起來很強

但其實並沒有想像中那麼複雜w

你們那麼電

這應該輕輕鬆鬆ㄅ

Deep learning

當我們考慮一個Neural Network

如果Hidden layers較少,我們會說他是個

Shallow Neural Network

如果Hidden layers較多,我們會說他是個

Deep Neural Network

而這就是Deep Learning的由來

Deep learning

Neural Network來擷取Features!

here's a DNN!

here's a DNN!

我們該如何做這件事ㄋ

其實很明顯

就只是我們之前在做Neural Network

多重複幾次就好了(茶

可以去翻一下之前的Slides

我們一樣會透過Forward prop, Back prop

計算CostGradient

activation function

激勵函數

為了讓Neural Network中包含非線性方程式

 

e.g.

你們很熟ㄉ

\(sigmoid(z) = \frac{1}{1 + e^{-z}}\)

activation function

常見的Activation function:

sigmoid(z) = \frac{1}{1 + e^{-z}} \\
ReLU(z) = \left \{ \begin{array}{l} z,& z \geq 0\\ 0,& otherwise \end{array} \right.
tanh(z) = \frac{e^{z} - e^{-z}}{e^{z} + e^{-z}}

softmax 之類ㄉ...

activation function

WHY?

為了避免Neural Network退化成線性方程式

activation function

這次我們會用用看ReLU

也是現在Deep Learning領域下

最常用到的Activation function

因為計算迅速

所以得到大家的芳心

祝段考不燒雞(?

Made with Slides.com