小社第一堂 25/09/30
# PRESENTING CODE
# PRESENTING CODE
ChatGPT?
Gemini?
掃地機器人?
統治世界(??
# PRESENTING CODE
ChatGPT?
Gemini?
掃地機器人?
統治世界(??
1950s
1956
1970
# PRESENTING CODE
1997
1990s-2000s
2006
2017
2018
# PRESENTING CODE
1997
1990s-2000s
2006
2017
2018
AGI (Artifical General Intelligence) - 在各方面能力和人類相似
ASI (Artifical Super Intelligence) - 在各方面能力顯著超越人類
⋯⋯
ANI
(Artificial Narrow Intelligence)
- 能執行特定功能
# PRESENTING CODE
當機器智慧超過人工智慧(?
# PRESENTING CODE
文字
圖片
中文
英文
例:
midjourney, nano banana
例:
google 翻譯
圖片
文字
例:
圖片辨識系統
其實就是讀入一些資料後,輸出一些有意義的資料,即使我們沒有預先明確指定好輸入的資料要對應到哪些輸出。
# PRESENTING CODE
線性迴歸是一個簡單的例子!
利用機器來尋找最合適的那條直線
=尋找斜率及結局
=尋找 x 軸和 y 軸的關聯。
x 軸:房子坪數
y 軸:房價
結果:
可以對該模型輸入一個 x 值(房子坪數),模型會輸出一個預測的y 值(房價)。
Auto-regression (AR):
過去預測未來
# PRESENTING CODE
# PRESENTING CODE
Natural Langauge
Processing (NLP)
自然語言處理
# PRESENTING CODE
透過前一句話,預測下一個單字有可能是什麼
=> 不斷重複後,得到一個完整的文字段落
# PRESENTING CODE
透過前一句話,預測下一個單字有可能是什麼
=> 不斷重複後,得到一個完整的文字段落
例:我是北一女中資訊
研習社
的
社員
# PRESENTING CODE
STEP 1 取得一定量的文本資料(訓練素材)
STEP 2 給模型一段未完成的文字
STEP 3 模型找出,未完成文字的最後幾個字最有可能和哪個字一起出現
把那個字視為下一個字輸出,
並重複此過程直到達成完整文字段落為止。
# PRESENTING CODE
我是北一女中的學生。
我是北一女中資訊研習社社員。
我是北一女中資訊研習社幹部。
我喜歡叫人工智慧幫我寫作業。
你是建國中學電子計算機研習社的幹部。
文本素材
未完成的文字段落
我
# PRESENTING CODE
我是北一女中的學生。
我是北一女中資訊研習社社員。
我是北一女中資訊研習社幹部。
我喜歡叫人工智慧幫我寫作業。
你是建國中學電子計算機研習社的幹部。
文本素材
未完成的文字段落
我是
# PRESENTING CODE
我是北一女中的學生。
我是北一女中資訊研習社社員。
我是北一女中社團社幹部。
我喜歡叫人工智慧幫我寫作業。
你是建國中學電子計算機研習社幹部。
文本素材
完成的文字段落
我是北一女中資訊研習社幹部
# PRESENTING CODE
N - gram model 優點
N - gram model 缺點
G
P
T
G
P
T
enerative
re-trained
ransformers
生成式
預先訓練好的
變換器
把文本切成一個一個的小單位,即 token。一個單位可以是一個詞彙或是一個字根。
把 token 換成數字,方便運算
GPT 的核心技術
運算這些 token 數字
今天可能來不及講
下學期來機器學習小社
# CHAPTER 2
Tokenization
Word
Embedding
Transformer
# PRESENTING CODE
把一段文字切成一個一個的 token
會依照語言而有不同的切割方式
例:「你好嗎」=7 tokens, 「我很好」=6 tokens
# PRESENTING CODE
把每個 token 配對到一串「向量」
向量簡單來說就是一串數字,可以在幾何空間中作表示
例:(2, 4) 是二維向量,可以視為 x 軸走 2 單位, y 軸走 4 單位
# PRESENTING CODE
意思相近的詞在幾何空間中會有相關的意義。
# PRESENTING CODE
意思相近的詞在幾何空間中會有相關的意義。
# PRESENTING CODE
意思相近的詞在幾何空間中會有相關的意義。
# PRESENTING CODE
意思相近的詞在幾何空間中會有相關的意義。
# PRESENTING CODE
經過一系列複雜的數學運算(其實是矩陣運算),
得出下一個字最有可能是什麼。
Attention (注意力)
是 GPT 成功的關鍵技術,旨在找出個字詞間的關聯,以處理一字多義的現象。
實作嘗試
大神 Andrej Karpathy 自製的迷你莎士比亞GPT
想解鎖更多,歡迎參與接下來的 AI 小社和下學期的放學機器學習
順便去修一下 Python 的課啦