深度(Deep)學習(Learning) - DL
Arvin Liu
(or函式)
髒話因子 | IQ |
---|---|
15.35 | 80 |
14.35 | 81 |
13.9 | 85 |
10.7 | 90 |
18.4 | 91 |
12.20 | 95 |
15.606 | 101 |
17.70 | 102 |
20.33 | 110 |
總之有辦法解就對了。
例如x = (a,b,c)
真的。
15 mins
(梯度下降法) - 可以用在幾乎所有平滑連續的模型上。
輸入隊伍編號
每個關卡都會給密碼
Login! (會等個10s)
座標圖
輸入一個x,伺服器會給你f(x)和他的切線。
(會大約等個10s)
以前猜的紀錄
座標圖:
每次猜都會拿到一個座標根切線。
順著斜率往下找到最低點!
GD裡面,x軸就是模型的參數,y軸就是目標損失
看起來好算的出來的:
看起來不好算的
(或是你懶的算的話):
就直接用數學解!
用梯度下降法!
Ex: Tensorflow / pyTorch / Keras
總之就是一個公式
(傳說中的神經網路!)
心理學上有個神經擴散觸發 -> 你會有聯想/聯覺等等
心理學上有個神經擴散觸發 -> 你會有聯想/聯覺等等
10
3.1
0.1
4.8
0.3x+0.1
-0.1x+1.1
0.5x-0.2
0.1x+0
0.4
5.5
0.1x+0.08
20x-0.5
x-0.8
...
受到刺激的神經
一般神經
還是一般神經
其他感官神經之類的
動器之類的
10
3.1
0.1
4.8
0.3x+0.1
-0.1x+1.1
0.5x-0.2
0.1x+0
0.4
5.5
0.1x+0.08
20x-0.5
x-0.8
...
輸入的資訊:例如圖片
一般神經
還是一般神經
結果!
結果!
10
3.1
ax+b
0.4
1. 輸入的資訊
一般神經
結果!
cx+d
0.5
真正的結果QQ
3. 目標差距
(loss)
4. 靠梯度下降法
更新參數
(這裡指a,b,c,d)
1. 資料
2. 模型
3. 目標
4. 算出最佳參數
2. 這就是整個模型
輸入層
(28x28x1)
(256x256x3)
(n)
輸出層
(1)
(256x256x3)
(1)或(2)
輸入層
(1個)
輸出層
(1個)
ax+b
夫哩卡內梯得(Fully-Connected / FC)層 / 全連(接)層
ax+b
前一層
的神經
(2個)
Dense(1)
(下一層只有
一個神經)
ax+b
前一層
的神經
(1個)
Dense(3)
(下一層有
三個神經)
cx+d
cx+d
ex+f
輸入層
(2個)
全連層
Dense(2)
全連層Dense(3)
輸出層
(1個)
激活層 / 獎勵層
線性整流函數(Rectified Linear Unit, ReLU)
0.1x+1
前一層
的神經
(1個)
Dense(3)
0.2x
-1x+8
10
-2
2
2
2
2
ReLU
0
它死了
不會再往前傳了QQ
還在的繼續傳下去:D
Dense全連層其實箭頭只有ax而已,不會+b。
他們是最後加總後每個神經再+b。
ax
全連層Dense(1)
cx
+b
輸入層(10)
model.add(Input((10,)))
model.add(Dense(128))
model.add(Activation('relu'))
model.add(Dense(64))
model.add(Activation('relu'))
model.add(Dense(32))
model.add(Dense(1))
Dense(128)
ReLU
Dense(64)
ReLU
Dense(32)
輸出層
Dense(1)
圖像辨識
(28x28x1)
這樣其實就可以了XD
(很有深度的深度學習)
Deep Learning vs Shallow Networks
深層網路
(深度學習)
淺層網路
世界上有很多要推論很多次才可以理解的事情。
事實
推論
結果
推論2
原本的圖片 * Kernel(卷積核):
把Kernel疊上去,每個獨自相乘後加總。
卷積
卷積
卷積
邊邊探測
模糊化
銳利化
因為如果
顏色都一樣,
卷積會變0。
因為結果的圖是上一張圖的周圍混在一起。
把中間的特色跟周圍突顯出來!
(因為它加強自己扣掉周圍)
再看一次: 每次運算都是把捲積核疊起來,每一格數字各自相乘後的加總丟給第二張圖。
卷積層
看不懂可以看久一點,真的看不懂也沒關係XD
a1 | b1 | c1 |
---|---|---|
d1 | e1 | f1 |
g1 | h1 | i1 |
a2 | b2 | c2 |
---|---|---|
d2 | e2 | f2 |
g2 | h2 | i2 |
R
G
B
卷積後加起來+b1
?
卷積後加起來+b2
?
最大池化層
就這樣XD
所以新的圖片會變小窩!
卷積神經網路
卷積神經網路
深度神經網路
然後怎麼疊比較好啊?
基本上就是靠經驗去疊。
卷積層
最大池化層
獎勵/激活, 通常ReLU系列
AlphaGo的算法中,
有決策網路估價網路
(看現在棋盤怎麼樣)
其中決策網路
就是個有12個卷積層的CNN!
或是將音訊轉成類似圖片的東西,就可以用CNN惹!
RNN: 遞歸神經網路,總之就是一種神經網路
CTC Loss: 總之就是一個公式。