AI 概覽 之 GPT 篇
小社第一堂 25/09/30
講師 - Suzy
# PRESENTING CODE
- 北資一六學術長
- 二信 離前面最近的位置
但有事先DC找 - 小羊蘇西(?
- PY 及 AI 小社講師

Artificial Intelligence 人工智慧
# PRESENTING CODE
ChatGPT?
Gemini?
掃地機器人?
統治世界(??
Artificial Intelligence 人工智慧
# PRESENTING CODE
ChatGPT?
Gemini?
掃地機器人?
統治世界(??
1950s
- 圖靈:機器可以思考嗎?
- 圖靈測試 (Turing Test)
1956
- 達特茅斯夏季人工智慧研究計畫
- 開了一個月,使 AI 成為一個研究領域
1970
- AI 寒冬
- 沒什麼人研究 AI
- 技術期待過高,落空
Artificial Intelligence 人工智慧
# PRESENTING CODE
1997
- DeepBlue AI 打敗人類西洋棋棋王
1990s-2000s
- 網路普及 -> 大數據資料產生
- 硬體能力升級
2006
- 發明深度學習 (Geoferry Hinton)
2017
- Google Brain 發明「注意力機制」
2018
- OpenAI 發布 GPT-1
Artificial Intelligence 人工智慧
# PRESENTING CODE
1997
- DeepBlue AI 打敗人類西洋棋棋王
1990s-2000s
- 網路普及 -> 大數據資料產生
- 硬體能力升級
2006
- 發明深度學習 (Geoferry Hinton)
2017
- Google Brain 發明「注意力機制」
2018
- OpenAI 發布 GPT-1
AGI (Artifical General Intelligence) - 在各方面能力和人類相似
ASI (Artifical Super Intelligence) - 在各方面能力顯著超越人類
⋯⋯
ANI
(Artificial Narrow Intelligence)
- 能執行特定功能
The Singularity 奇異點
# PRESENTING CODE

當機器智慧超過人工智慧(?
Machine Learning 機器學習
# PRESENTING CODE
- 傳統的程式碼:一個指令一個動作
- 機器學習:讓機器學習如何把一些資料轉換為另一些資料。
文字
圖片
中文
英文
例:
midjourney, nano banana
例:
google 翻譯
圖片
文字
例:
圖片辨識系統
其實就是讀入一些資料後,輸出一些有意義的資料,即使我們沒有預先明確指定好輸入的資料要對應到哪些輸出。
Machine Learning 機器學習
# PRESENTING CODE

線性迴歸是一個簡單的例子!
利用機器來尋找最合適的那條直線
=尋找斜率及結局
=尋找 x 軸和 y 軸的關聯。
x 軸:房子坪數
y 軸:房價
結果:
可以對該模型輸入一個 x 值(房子坪數),模型會輸出一個預測的y 值(房價)。
Auto-regression (AR):
過去預測未來
Machine Learning 機器學習
# PRESENTING CODE

- 監督式學習:所有資料都被「標註」(label),告訴機器相對應的值,以提供機器學習在輸出時判斷誤差使用。
- 非監督式學習:所有資料都沒有標註,機器透過尋找資料的特徵,自己進行分類。
- 強化式學習:我們不標註任何資料,但告訴它所採取的哪一步是正確、那一步是錯誤的,根據反饋的好壞,機器自行逐步修正、最終得到正確的結果。
- 深度學習:神經網絡。(以後會教)
Large Language Models 大型語言模型
# PRESENTING CODE
- 就是那種「可以講話」的 AI !
- 如何把機器學習,套用到語言模型上?

Natural Langauge
Processing (NLP)
自然語言處理
- 一種機器學習技術,讓電腦能夠解譯、操縱及理解人類語言。– Google
Large Language Models 大型語言模型
# PRESENTING CODE
- 套用前面 Auto-Regression (自我迴歸)的概念,
- 「用過去預測未來」
透過前一句話,預測下一個單字有可能是什麼
=> 不斷重複後,得到一個完整的文字段落
Large Language Models 大型語言模型
# PRESENTING CODE
- 套用前面 Auto-Regression (自我迴歸)的概念,
- 「用過去預測未來」
透過前一句話,預測下一個單字有可能是什麼
=> 不斷重複後,得到一個完整的文字段落
例:我是北一女中資訊
研習社
的
社員
N - gram model
# PRESENTING CODE
- 利用機率預測「下一個字可能是什麼」
STEP 1 取得一定量的文本資料(訓練素材)
STEP 2 給模型一段未完成的文字
STEP 3 模型找出,未完成文字的最後幾個字最有可能和哪個字一起出現
把那個字視為下一個字輸出,
並重複此過程直到達成完整文字段落為止。
N - gram model
# PRESENTING CODE
我是北一女中的學生。
我是北一女中資訊研習社社員。
我是北一女中資訊研習社幹部。
我喜歡叫人工智慧幫我寫作業。
你是建國中學電子計算機研習社的幹部。
文本素材
未完成的文字段落
我
N - gram model
# PRESENTING CODE
我是北一女中的學生。
我是北一女中資訊研習社社員。
我是北一女中資訊研習社幹部。
我喜歡叫人工智慧幫我寫作業。
你是建國中學電子計算機研習社的幹部。
文本素材
未完成的文字段落
我是
N - gram model
# PRESENTING CODE
我是北一女中的學生。
我是北一女中資訊研習社社員。
我是北一女中社團社幹部。
我喜歡叫人工智慧幫我寫作業。
你是建國中學電子計算機研習社幹部。
文本素材
完成的文字段落
我是北一女中資訊研習社幹部
N - gram model
# PRESENTING CODE
- N 代表把幾個字為一單位進行運算
- 本例為 N=1 (monogram)
- 經常使用的還有 N=2 (bigram), N=3 (trigram) 等
N - gram model 優點
N - gram model 缺點
- 通常不會出現文法錯誤、不合語法的句子
- 模型訓練過程簡單
- 創作內容順暢但不知所云
- 無法創作一個有邏輯、意義的文章段落
G
P
T
G
P
T
enerative
re-trained
ransformers
生成式
預先訓練好的
變換器
GPT
把文本切成一個一個的小單位,即 token。一個單位可以是一個詞彙或是一個字根。
1.
2.
把 token 換成數字,方便運算
3.
GPT 的核心技術
運算這些 token 數字
今天可能來不及講
下學期來機器學習小社
# CHAPTER 2
Tokenization
Word
Embedding
Transformer
Tokenization
# PRESENTING CODE

把一段文字切成一個一個的 token
會依照語言而有不同的切割方式

例:「你好嗎」=7 tokens, 「我很好」=6 tokens
Word Embedding
# PRESENTING CODE
把每個 token 配對到一串「向量」
向量簡單來說就是一串數字,可以在幾何空間中作表示
例:(2, 4) 是二維向量,可以視為 x 軸走 2 單位, y 軸走 4 單位

Word Embedding
# PRESENTING CODE
意思相近的詞在幾何空間中會有相關的意義。

Word Embedding
# PRESENTING CODE
意思相近的詞在幾何空間中會有相關的意義。

Word Embedding
# PRESENTING CODE
意思相近的詞在幾何空間中會有相關的意義。

Word Embedding
# PRESENTING CODE
意思相近的詞在幾何空間中會有相關的意義。

Transformer
# PRESENTING CODE

經過一系列複雜的數學運算(其實是矩陣運算),
得出下一個字最有可能是什麼。
Attention (注意力)
是 GPT 成功的關鍵技術,旨在找出個字詞間的關聯,以處理一字多義的現象。
實作嘗試
大神 Andrej Karpathy 自製的迷你莎士比亞GPT
謝謝大家
想解鎖更多,歡迎參與接下來的 AI 小社和下學期的放學機器學習
順便去修一下 Python 的課啦
AI 小社第一堂 GPT篇
By Suzy Huang
AI 小社第一堂 GPT篇
- 113