GDG on Campus @ NCU

國立中央大學 Google 學生開發者社群

 

AI/ML 概論與實作入門課程

從 0 開始帶你系統性地學習人工智慧
 

2025/11/20、27

講師:4yü

SCIST 南臺灣學生資訊社群 x
南 15 校資訊社 2025 聯合寒訓 - 資深玩家

 

AI 人工智慧入門課程

從 0 開始帶你系統性地學習 AI

2025/01/25 ~ 26

講師:4yü

SCINT 北臺灣學生資訊社群 x
北四校資訊社團聯合工作坊 - 資所未見

 

AI 人工智慧入門課程

 

 

2025/03/29

講師:4yü

 

 

 

 

 

從 0 開始帶你系統性地學習 AI

 

南 4 校資訊社聯合社課

臺南一中 x 臺南二中 x 臺南女中 x 南大附中

 

AI 人工智慧入門課程

從 0 開始帶你系統性地學習 AI

2024/06/09

講師:4yü

  • GDG@NCU Coreteam 25-26 技術組

  • SCIST 南臺灣學生資訊社群 S5 總召

  • SITCON 學生計算機年會 2026 行銷組

  • NFIRC 社團創辦人 & 社長 & 講師

  • 南 9 校資訊社 x SCIST x 成大資工
    2024 聯合寒訓 【資得其樂】副召

  • APCS 5+5, CPE Expert (6/7, PR99)

  • 高中學科能力競賽 112 & 113 學年複賽佳作

  • AIS3 Junior 2024 最佳專題獎

  • 南四校聯合社課 AI 講師

  • 北四校聯合工作坊 AI 講師

  • FunAI 2025 RL 競賽 rk.3

  • 陽明交大中學人才培育計畫 AI 課程結訓

自我介紹

4yü

Instagram > 4yu.dev.318
個人網站 > https://4yu.dev/

資工一A

課前注意事項

  • ❌ 專業的 AI 工程師      ✅ 樂於分享技術的大一生
  • ❌ 數學課                        ✅ AI 課
  • ❌ 應用                            ✅ 原理
  • 聽懂 🙂‍↕️                            還沒理解 🫠
  • 課程內容為自學後吸收整理而成,若想補充可以提出來討論
  • 簡報圖片皆引用自網路文章或影片,如有侵權請告知
  • 有任何疑問可以隨時 🙋🏻‍♂️ 提問

Slido 即時匿名提問

  • AI 發展簡史

  • 機器學習
    • 模型 & 擬合函數
    • 損失 & 成本函數
    • 梯度下降演算法
    • 梯度 & 學習率
    • 超參數

課程大綱

  • 深度學習
  • 神經網路
  • 激活函數
  • 反向傳播
  • 模型訓練流程
  • 實作梯度下降
  • 梯度下降優化器
  • 過擬合與改進

基礎

加深

11/20

  • 機器學習演算法
  • 強化學習
    • DQN、Policy
    • Actor-Critic、PPO
  • 深度學習架構
    • CNN、ResNet
    • RNN、LSTM
    • Transformer、GPT、BERT
    • GAN、VAE、Diffusion
  • 深度學習技術應用

課程大綱

  • Fine-Tune、LoRA、RLHF
  • AI Hallucination
    • 提示工程
    • RAG
    • Explainable AI

  • AI Agent & MCP
  • AI 跨域結合
    • 資訊安全
    • 量子計算
  • AI 倫理
  • AGI
  • 總結Q & A

加廣

11/27

延伸

人工智慧
(Artificial Intelligence)

1950 A.D.
艾倫 · 圖靈

圖靈測試

(Turing Test)

1956 A.D.
達特茅斯會議

符號主義

(Symbolism)

專家系統

(Expert System)

  • 發燒 + 鼻塞 = 感冒

  • 發燒 + 咳嗽 + 肌肉酸痛 = 流感

  • 上腹部痛 + 進食後舒緩 = 胃潰瘍

  • 上腹部痛 + 進食後加重 + 噁心 = 胃炎

  • 頻尿 + 多飲 + 體重減輕 = 糖尿病

專家系統 - 推理機

連接主義

(Connectionism)

1957 A.D.

 Frank Rosenblatt 

感知器 (Perceptron)

感知器 (Perceptron)

大小

顏色

味道

數量

...

感知器 (Perceptron)

感知器難題:XOR 異或問題

1969 A.D. Minsky

感知器難題:XOR 異或問題

解法:新增一層

多層感知器

(MultiLayer Perceptron)

神經網路

(Neural Network)

AI 發展簡史

機器學習

(Machine Learning)

機器學習

≈ 找出函數

機器學習

f

(                 ) = "Hello"

f

(                 ) = cat

f

(                 ) =  (5, 5)

模型

擬合函數

(Fitting Function)

參數量

損失函數 Loss Function

成本函數 Cost Function

  • 成本函數越小 ->

  • 擬合函數越貼近數據 ->

  • 模型準確率越高

loss

sum(loss) = cost

(大多數情況下)

目標:找到損失函數的最小值

最佳化演算法

局部最小值

(Local Minima)

全局最小值

(Global Minima)

梯度下降演算法

(Gradient Descent)

  1. 方向

  2. 步伐大小

以二維損失函數為例

方向:斜率

對 Loss Funtion 微分

計算三維梯度

損失平面

計算三維梯度

偏微分

Partial Derivative

1. 方向:梯度 (Gradient)

超參數

(Hyperparameter)

2. 步伐大小:學習率 (Learning Rate)

超參數

(Hyperparameter)

  1. 學習率 (Learning Rate)
  2. 迭代次數 (Epoch)
  3. 樣本數量 (Batch size)
  4. 梯度裁剪 (Gradient Clipping)
  5. Early Stopping

越大越好?

越小越好?

容易震盪

無法收斂

下降速度較慢

容易陷入 Local minima

學習率

(Learning Rate)

非凸優化問題

AI:加深

深度學習

(Deep Learning)

神經元

(Neuron)

感知器

(Perceptron)

神經系統

(Nervous system)

神經網路

(Neural Network)

如何訓練神經網路模型

  1. 初始化(架構、權重)
  2. 正向傳播
  3. 計算損失函數
  4. 梯度下降演算法 + 鏈式法則
  5. 反向傳播演算法

如何訓練神經網路模型

正向傳播

激活函數

(Activity Function)

激活函數

(Activity Function)

激活函數

(Activity Function)

激活函數

(Activity Function)

激活函數

(Activity Function)

反向傳播演算法

(Backward Propagation)

更新參數權重

鏈式法則 (Chain Rule)

人工智慧就是數學

AI is Math

模型訓練流程

  1. 定義問題類型

  2. 準備資料 (Data)

  3. 選擇模型 (Model)

  4. 確定訓練方法

  5. 定義損失函數 (Loss Function)

  6. 最佳化 (Optimization)

1. 定義問題類型

分類問題 

預測問題

分群問題

邏輯迴歸

線性迴歸 

無監督

2. 準備資料 (Data)

3. 選擇模型 (Model)

後面加廣的部分會簡單介紹到各種機器學習模型

今天只會深入介紹 + 實作 線性回歸模型

訓練方法 英文 有無標籤 目的 應用
監督式學習 Supervised Learning 學習資料與標籤之間的關係 線性回歸問題
無監督式學習  Unsupervised Learning 學習資料之間的隱藏結構 分類分群問題
半監督式學習 Semi-supervised Learning 部分有 在有限標籤數據下學習 泛化能力
自監督式學習 Self-supervised Learning 標籤由輸入生成 學習資料內在的結構或特徵 自然語言處理
強化學習 Reinforcement Learning 透過環境互動與回饋強化自身 增強能力

4. 訓練方法

資料 (Data) 對應 標籤 (Label)

舉例:題目 對應 答案

多數時候選擇模型時就有搭配的訓練方法了

5. 定義損失函數 (Loss Function)

  • 均方誤差 (MSE):真實資料與預測資料相減後的平方

  • 均方根誤差 (RMSE):是 MSE 的平方根,常用於迴歸問題

  • 平均絕對值誤差 (MAE):真實資料與預測資料的絕對值

  • 交叉熵 (Cross-entropy):透過機率分佈處理分類問題

6. 最佳化 (Optimization)

  • 梯度下降演算法 (Gradient Descent, GD)

  • 模擬退火演算法 (Simulated Annealing, SA)

  • 遺傳演算法 (Genetic Algorithm, GA)

  • 粒子群算法 (Particle Swarm Optimization, PSO)

實作時間

今日實作主題範例:

透過讀書時長
預測考試分數

使用梯度下降演算法最佳化線性迴歸模型

  • 平台:Colab

  • 語言:Python

  • 函式庫:

    • pandas

    • numpy

    • matplotlib

    • ipywidgets

程式碼講解

import pandas as pd

# 抓取 csv 檔
url = "https://raw.githubusercontent.com/ShiYu0318/SCIST_2025_WC_AI/main/study_hours_scores.csv"

# 存進 data
data = pd.read_csv(url)

# 將兩欄資料分開
x = data["Study_Hours"]
y = data["Scores"]

# 顯示 data
data

1. 讀取資料並顯示

程式碼講解

import matplotlib.pyplot as plt
from ipywidgets import interact

def plot_pred(w, b):

    # 初始化預測線權重
    y_pred = x*w + b

    # 畫資料點分布
    plt.scatter(x, y,  color="blue", label="data")

    # 畫線
    plt.plot(x, y_pred, color="red", label="predict")

    # 軸名稱
    plt.xlabel("Study Hours")
    plt.ylabel("Scores")

    # 範圍限制
    plt.xlim([0, 12])
    plt.ylim([0, 100])

    # 顯示圖例
    plt.legend()

    # 顯示圖表
    plt.show()

# 使用互動元件動態調整並顯示
interact(plot_pred, w=(-100, 100, 1), b=(-100, 100, 1)) # (min,max,space)

2. 把資料可視化 並用互動元件調整函數

程式碼講解

# w=-100~100 b=-100~100 的 cost
import numpy as np

def compute_cost(x, y, w, b):
  y_pred = w*x + b
  loss = (y - y_pred)**2
  cost = loss.sum() / len(x)

  return cost

ws = np.arange(-100, 101)
bs = np.arange(-100, 101)
costs = np.zeros((201, 201))

i = 0
for w in ws:
  j = 0
  for b in bs:
    cost = compute_cost(x, y, w, b)
    costs[i,j] = cost
    j = j+1
  i = i+1

costs

3. 用暴力窮舉法找出 w= -100 ~ 100、b= -100 ~ 100 所有可能的權重組合 對每一種組合都計算 cost

程式碼講解

from ipywidgets import interact

# 畫出所有 cost 並尋找最低點

def plot_3d(elev,azim):


    # 圖片尺寸
    plt.figure(figsize=(10, 10))

    # 創建 3D 圖
    ax = plt.axes(projection="3d")

    # 旋轉角度
    ax.view_init(elev, azim)

    # 矩陣轉二維網格
    b_grid, w_grid = np.meshgrid(bs, ws)

    # 繪製三維表面,cmp 顏色、alpha 透明度
    ax.plot_surface(w_grid, b_grid, costs, cmap="Spectral_r", alpha=0.7)

    # 繪製邊框
    ax.plot_wireframe(w_grid, b_grid, costs, color="black", alpha=0.1)

    # 軸標題
    ax.set_xlabel("w")
    ax.set_ylabel("b")
    ax.set_zlabel("cost")

    # 回傳最低 cost 的 index
    w_index, b_index = np.where(costs == np.min(costs))

    # 畫出最低點 (x,y,z,color,size)
    ax.scatter(ws[w_index], bs[b_index], costs[w_index, b_index], color="red", s=60)

    plt.show()

    print(f"當w={ws[w_index]}, b={bs[b_index]} 會有最小cost:{costs[w_index, b_index]}")

interact(plot_3d, elev=(0, 90, 1), azim=(0, 360, 1))

4. 將結果畫成三維立體圖並標示出最低點

自行實作部分

5. 梯度下降演算法 最小化損失函數

\text{MSE} = \frac{1}{n} \sum_{i=1}^{n} (w x_i + b - y_i)^2

y_pred

Loss

Cost

a. 計算成本函數

b. 計算梯度:分別對 w、b 求導

c. 更新參數:學習率 * 梯度

實作解答

加深番外篇

關於梯度下降的優化問題

非凸優化問題

隨機梯度下降演算法

(Stochastic Gradient Descent)

隨機梯度下降演算法

(Stochastic Gradient Descent)

優化器

(Optimizer)

  1. Newton’s Method

  2. Momentum

  3. Nesterov (NAG)

  4. AdaGrad

  5. RMSprop

  6. Adam

  7. Nadam

優化器

(Optimizer)

1. Newton’s Method

優化器

(Optimizer)

2. Momentum

優化器

(Optimizer)

2. Momentum

優化器

(Optimizer)

3. Nesterov (NAG)

優化器

(Optimizer)

3. Nesterov (NAG)

優化器

(Optimizer)

4. AdaGrad

5. RMSprop

優化器

(Optimizer)

6. Adam = Momentum + RMSprop

7. Nadam = Nesterov (NAG) + Adam

優化器

(Optimizer)

優化器

(Optimizer)

過擬合

(Overfiting)

過擬合

(Overfiting)

  • 訓練集 (Training Data)
  • 驗證集 (Validation Data)
  • 測試集 (Testing Data)

書讀得越多

書讀得越少

資料分為

  • 講義
  • 小考
  • 學測

過擬合

(Overfiting)

欠擬合

Ground Truth

Fiting

泛化能力

(Generalization)

泛化能力

(Generalization)

= 舉一反三

  • 預處理:清理資料 去除偏誤值 (bias)

  • 正則化 (Regularization):L1/L2

  • Dropout:隨機失活

改進方法

AI:加廣

學了一點

還有億點

機器學習演算法

目前只實作了這個而已

深度學習架構

強化學習

(Reinforcement Learning)

強化學習

(Reinforcement Learning)

強化學習

(Reinforcement Learning)

強化學習

(Reinforcement Learning)

  • Value-Based:DQN

  • Policy-Based

  • Actor-Critic (Value + Policy)

強化學習

(Reinforcement Learning)

Deep Q-Network

Deep Q-Network

Q-Table

Deep Q-Network

Q(s_t, a_t) \leftarrow Q(s_t, a_t) + \alpha [ r_{t+1} + \gamma \max_{a'} Q(s_{t+1}, a') - Q(s_t, a_t) ]

訓練收斂後可直接對 state 查表選擇最佳 action

Update Q-table

  • st:當前狀態

  • ata_tat:採取的動作

  • rt+1r_{t+1}rt+1:即時回報(reward)

  • st+1s_{t+1}st+1:下一個狀態

  • α\alphaα:學習率,控制更新幅度

  • γ\gammaγ:折扣因子,控制未來回報的重要性max⁡a′Q(st+1,a′)\max_{a'} Q(s_{t+1}, a'

Deep Q-Network

= 用神經網路來近似 Q 函數

適合 action 離散但 state space 巨大

若 action 是連續的?

Q-Table ❌

Policy-based

Policy-based

直接輸出動作機率分布

不需要估算價值

Policy-based

J(\theta) = \mathbb{E}_{\pi_\theta} [ G_t ]
\nabla_\theta J(\theta) = \mathbb{E}_{\pi_\theta} \big[ \nabla_\theta \log \pi_\theta(a|s) \, Q^{\pi_\theta}(s,a) \big]

最大化策略的期望累積報酬

策略梯度

(Policy Gradient)

Actor-Critic

  • Actor 策略網路:決定動作

  • Critic 價值網路:評估當前動作的好壞

Actor-Critic

How ?

強化學習 - 延伸

  • PPO

  • A2C

  • Sarsa

  • Baseline

  • ε-greedy

  • TD-Learning

  • Monte Carlo Learning

卷積核 (kernel)

卷積神經網路

(Convolutional Neural Network)

卷積神經網路

(Convolutional Neural Network)

卷積神經網路

(Convolutional Neural Network)

卷積神經網路

(Convolutional Neural Network)

卷積層

(Convolutional Layer)

卷積神經網路

(Convolutional Neural Network)

 池化層

(Pool Layer)

卷積神經網路

(Convolutional Neural Network)

卷積神經網路

(Convolutional Neural Network)

卷積神經網路

(Convolutional Neural Network)

Softmax

\frac{e^{z_i}}{\sum_{j=1}^{K} e^{z_j}}

殘差網路

(Residual Network)

殘差網路

(Residual Network)

U-Net

循環神經網路

(Recurrent Neural Network)

Stacked RNN

循環神經網路

(Recurrent Neural Network)

Bidirectional  RNN

循環神經網路

(Recurrent Neural Network)

循環神經網路

(Recurrent Neural Network)

  • 容易梯度消失 (Vanishing) or 梯度爆炸 (Explored)

  • 較難處理長序列問題

長短期記憶神經網路

(Long-Short Term Memory)

長短期記憶神經網路

(Long-Short Term Memory)

  1. 記憶細胞 (Cell State)
  2. 遺忘門 (Forget Gate)
  3. 輸入門 (Input Gate)
  4. 輸出門 (Output Gate)

保留長期記憶,避免梯度消失

閘門循環單元

(Gated Recurrent Unit)

Transformer

多層感知器

(MultiLayer Perceptron)

Attention Is All You Need

 Word 2 Vec

詞嵌入

(Embedding)

詞嵌入

(Embedding)

詞嵌入

(Embedding)

詞向量運算

詞嵌入

(Embedding)

詞嵌入

(Embedding)

注意力機制

 (Attention)

\text{Attention}(Q, K, V) = \text{Softmax}\left(\frac{Q K^T}{\sqrt{d_k}}\right) V

 Self-Attention

注意力機制

 (Attention)

Multi-Head Attention 

Masked Self-Attention

溫度控制隨機性

Softmax with Temperature

T=1

T=10

生成式預訓練模型

Generative Pre-trained Transformer

基於 Transformer 的雙向編碼器

(Bidirectional Encoder Representations from Transformers)

微調 LLM

(Fine-Tuning)

微調 LLM

(Fine-Tuning)

LoRA 低秩適應微調

(Low-Rank Adaptation)

人類回饋強化學習

(Reinforcement Learning from

Human Feedback)

淺談幻覺 & 解決方法

幻覺

(Hallucination)

提示詞工程

(Prompt Engineering)

我是一名智力低下的大学生,我想学习一下这篇论文,

请用傻子都能懂的语言详细给我讲一下这篇文章怎么做的

特别是模型和实证方面

檢索增強生成

(Retrieval-Augmented Generation)

檢索增強生成

(Retrieval-Augmented Generation)

Google NotebookLM

Explainable AI

ViT

(Vision Transformer)

ViT

(Vision Transformer)

ViT

(Vision Transformer)

ViT

(Vision Transformer)

Positional Encoding

ViT

(Vision Transformer)

生成對抗網路

(Generative Adversarial Network)

生成對抗網路

(Generative Adversarial Network)

自編碼器  

(AutoEncoder)

變分自編碼器  

(Variational AutoEncoder)

DeepFake

擴散模型

(Diffusion Model)

擴散模型

(Diffusion Model)

評分函數

(Score Function)

評分函數

(Score Function)

評分函數

(Score Function)

Stable Diffusion

深度學習

技術應用

2017 AlphaGO vs 柯潔 & 李世乭

CNN + MCTS

2017 AlphaZero

RL + Self-play

2026 Grok vs T1 LOL

預測氨基酸序列的三維結構與功能

2020 Google DeepMind

AlphaFold

蛋白質折疊問題

2020 Google DeepMind

AlphaFold

Attention + GNN

2022 Google DeepMind

Gato

2024 Tesla
全自動輔助駕駛

Full Self-Driving)

2025 Italian Brainrot

2025 Google DeepMind Genie 3

2025 Google DeepMind Genie 3

2025 OpenAI Sora 2

生成擴散影片模型

2025 OpenAI Sora 2

生成擴散影片模型

2025 Google

Gemini 3

LLM Benchmark

Gemini 3

Gemini 3

AGI

Artificial General Intelligence

通用人工智慧

人工智慧的終極目標

AI Agent & MCP

AI 結合 資訊安全

AI & Cybersecurity

對抗樣本攻擊

(Adversarial Attack)

提示詞注入攻擊

(Prompt Injection Attack)

Jailbreaking

提示詞注入攻擊

(Prompt Injection Attack)

提示詞注入攻擊

(Prompt Injection Attack)

提示詞注入攻擊

(Prompt Injection Attack)

AI 結合 量子計算

AI & Quantum Compute

NVDIA - NVQLink

NVDIA - NVQLink

AI & Quantum Compute

  • QML、QNN、QRL

  • 變分量子算法 (VQA)

  • 量子退火 (Quantum Annealing)

淺談 Vibe Coding

Vibe Coding

Andrej Karpathy

2025/11/12

巴基斯坦 黎明報

  • 最佳化

  • 監督式學習

  • 泛化能力

  • 人工智慧

OsGa

有獎徵答:解釋以下專有名詞

  • Optimization

  • Supervised Learning

  • Generalization

  • Artificial Intelligence

誰叫他上課一直提到我的名字

送出 SCIST 限量版紀念徽章

The End.

Thanks for your attention

Q&A Time

AI

By 4yü

AI

  • 920