Practical Applications of Chatbots
Introduction to ChatGPT prompting
官網註冊
手機應用
Context對話情境
提示工程
Prompt(提示):提供給語言模型(language model, 如GPT-3.5) 的指令或問題。模型會根據這個初始提示來生成相關的回答、文本或內容。
提示: 明定步驟
提供範例資料
推論
將複雜任務拆解成較小的任務
提示工程(Prompt engineering)是人工智慧中、自然語言處理(NLP)的操作概念。任務(tasks)的描述會被嵌入到輸入中。例如,不是隱含給予模型一定的參數,而是以問題的形式直接輸入。
設定角色
設定輸出格式
5種設計提示的最佳實務
提示要具體
設定條件
提供範例
目的
設定角色
行銷任務最佳實務
參數
主題
通路
受眾
格式
目標
關聯思考CoT
少量樣本
模板
拆解
iteration #101
擇定一主題,使用前述技巧產生吸引人的內容
時間: 5分鐘
文案、書籍、影片、網站...的標題
修改文章
email, po文等等
提示指令
模型輸出
淡水最知名的景點是哪一個
淡水老街
理想的情境
實際的情況,很可能是...
請幫我去識別化,將姓名中間的字以O取代
李陸助
黃宇駿
黃家宥
以下是姓名中間字以'O'取代後的名單:
李陸助
黃宇駿
黃家宥
常見的建議一:給範例
以下是姓名中間字以'O'取代後的名單:
李O助
黃宇駿
黃家宥
唐楷O
部分答對...比例不是很高 < 50%
幫我去識別化,將姓名中間的字以O取代。例如鄧雅之,以鄧O之取代。
李陸助
黃宇駿
黃家宥
唐楷勛
shot / shots
one-shot prompting
思考點: 例子不夠多?
two shots? few shots
常見的建議二:角色扮演
抱歉,我之前的回答有誤,請容許我重新回答。以下是姓名中間字以'O'取代後的名單:
李O助
黃宇駿
黃家宥
唐O勛
答案沒有改變 仍是< 50%
你是中文姓名專家,再試著回答上面的問題
顯然ChatGPT不認為中文姓名專家該懂「個資法」
常見的建議三:更詳細的解釋(context)
答案顯著改善,除了黃姓以外,全部正確
中文姓名大部分是3個字,第一個字是姓,後兩個字是名。去識別化會把第2個字,也就是姓後面的那一個字去除,以O取代。
非常抱歉之前的回答仍有誤。以下是正確的姓名去識別化結果,將中文姓名的第二個字以'O'取代:
李O助
黃宇駿
黃家宥
唐O勛
曾O為
常見的建議四:保留要的,修正不要的
全部正確!
三位姓黃的都沒有去識別化
非常抱歉之前的回答仍有誤。以下是正確的姓名去識別化結果,將中文姓名的第二個字以'O'取代:
李O助
黃O駿
黃O宥
唐O勛
曾O為
小結:
指令
範例1
範例2
範例3
這很棒! // 正面
這很糟糕! // 負面
哇,那部電影真棒! // 正面
多麼可怕的節目! //
負面
few shots
範例+指令
結果
one-shot prompting
兩個步驟
來回修正
指令
範例1
範例2
範例3
角色
指令:修改文章
應用:修改文章 / 回饋
角色
角色與回饋
指令:推論
指令
範例1
範例2
範例3
角色
情境
問題
情境說明
few-shot
並非所有部份都會出現、也沒有標準的順序
應用:推論
常見應用:
常見應用:
Prompt injection
Prompt leaking
指令Instructions
Chain of Thoughts
關聯思考、思維連鎖、思路鏈(CoT)
Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., Chi, E., Le, Q., & Zhou, D. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.
關聯思考、思維連鎖、思路鏈(CoT)
Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., Chi, E., Le, Q., & Zhou, D. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.
透過展示一些範例(few-shot examplars)給LLM,範例中解釋了推理過程
則LLM在回答提示時也會展示推理過程
此舉通常會帶來更準確的結果。
Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., Chi, E., Le, Q., & Zhou, D. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.
The odd numbers in this group add up to an even number: 4, 8, 9, 15, 12, 2, 1.
A: Adding all the odd numbers (9, 15, 1) gives 25. The answer is False.
The odd numbers in this group add up to an even number: 17, 10, 19, 4, 8, 12, 24.
A: Adding all the odd numbers (17, 19) gives 36. The answer is True.
The odd numbers in this group add up to an even number: 16, 11, 14, 4, 8, 13, 24.
A: Adding all the odd numbers (11, 13) gives 24. The answer is True.
The odd numbers in this group add up to an even number: 17, 9, 10, 12, 13, 4, 2.
A: Adding all the odd numbers (17, 9, 13) gives 39. The answer is False.
The odd numbers in this group add up to an even number: 15, 32, 5, 13, 82, 7, 1.
A:
Adding all the odd numbers (15, 5, 13, 7, 1) gives 41. The answer is False.
Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., Chi, E., Le, Q., & Zhou, D. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.
The odd numbers in this group add up to an even number: 4, 8, 9, 15, 12, 2, 1.
A: Adding all the odd numbers (9, 15, 1) gives 25. The answer is False.
The odd numbers in this group add up to an even number: 15, 32, 5, 13, 82, 7, 1.
A:
Adding all the odd numbers (15, 5, 13, 7, 1) gives 41. The answer is False.
Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large language models are zero-shot reasoners. Advances in neural information processing systems, 35, 22199-22213
加上"Let's think step by step"提示
I went to the market and bought 10 apples. I gave 2 apples to the neighbor and 2 to the repairman. I then went and bought 5 more apples and ate 1. How many apples did I remain with?
11 apples
I went to the market and bought 10 apples. I gave 2 apples to the neighbor and 2 to the repairman. I then went and bought 5 more apples and ate 1. How many apples did I remain with?
Let's think step by step.
First, you started with 10 apples.
You gave away 2 apples to the neighbor and 2 to the repairman, so you had 6 apples left.
Then you bought 5 more apples, so now you had 11 apples.
Finally, you ate 1 apple, so you would remain with 10 apples.
角色扮演#2
Linux terminal
Excel
prompting重點:trial and error
Ask chatgpt do not explain anything if you just want it to act like a piece of software, such as Linux terminal.
角色扮演的關鍵:clear intructions
範例
角色:
探討劇情
角色扮演
情境:個性、語氣、nonverbal communication
ChatGPT的問題:
容易得意忘形: over explain everything it does.
角色扮演練習:Act as, 扮演
try and error:
Persona
Job Title
Act as a life coach
應該要解釋該場景的完整設置和參與規則
Ontology
zero shot prompt
one shot prompt
few shot prompt
chatGPT不懂的部份,透過a few shot examples to train it
few shot prompt範例
產生履歷表
給履歷表範例、告知chatGPT學習方向,並在收到履歷時只回應"知道了"
divide and conquer
for long response content