23招教你掌握大模型提示詞技巧

阿里妹導讀
當模型越來越懂人話,我們還需要學習提示語(Prompt)嗎?本文總結了23招向AI提問的好方式。
過去一個月,全球AI領域接連引爆"深水炸彈":推理成本直降80%的Deepseek-R1橫空出世,OpenAI對GPT-4o進行了迭代更新,馬斯克的xAI推出Grok 3模型並聲稱效能超越ChatGPT ……在這場技術地震中,最引人注目的當屬完全開源的DeepSeek。
這款主打深度推理的模型不僅效能碾壓GPT-3.5,在結構化思維層面甚至比肩GPT-4。與通用大模型需要複雜提示語驅動不同,Deepseek-R1的提示詞簡單到像日常聊天——輸入"幫我分析財報趨勢",它就能自動拆解資料提取、對比維度、結論推導全流程。人們發現,AI正在變得越來越“聰明”。
這直接引爆全球AI對話熱潮:#AI咒語大全#話題席捲社交媒體,小紅書"AI咒語模板"筆記動輒10萬+收藏,就像智慧機普及初期全民研究觸屏手勢,現在每個AI使用者都在構建自己的"咒語庫"。
但問題來了:當模型越來越懂人話,我們還需要學習提示語(Prompt)嗎?
所謂提示語,本質是與AI對話所使用的語言,它可以是一個簡單的問題,一段詳細的指令,也可以是一個複雜的任務描述。推理模型與通用模型的提示語策略也有所差異。
推理模型VS通用模型
事實上,即便DeepSeek已能理解自然指令,不同使用者獲得的回答質量仍天差地別。就像同樣使用搜索引擎,有人能快速定位關鍵資訊,有人卻被海量結果淹沒。在AI指數級進化的今天,清晰表達需求正成為數字時代的基礎素養。
之前,我在twitter上看到了多人點讚的GPTs的Prompt原則,閱讀後感覺收穫很大,所以對其進行了翻譯、說明和整合,從核心法則中提煉出最硬核的實戰技巧,手把手教你寫出讓AI秒懂的「咒語」

讓你的提示語效果倍增的關鍵策略
當機器開始理解世界執行的邏輯,人類的競爭力正在向"精準定義問題"遷移。那些掌握提示語藝術的人,已然在悄悄拉開智慧時代的認知差。
一、精簡指令,別對AI太客氣
1、別再用禮貌用語。
與大型語言模型交流不需要用禮貌用語,不必說“請”、“如果你不介意”、“謝謝”、“我想要”,直接陳述你的需求或問題更為高效。模型是基於輸入的文字來理解和回答問題的,不需要透過語氣或禮貌用語來判斷意圖。
例子:
如果你想要模型提供一個天氣預報,你可以直接說“明天杭州的天氣如何?”而不需要說“請告訴我,如果你不介意,明天杭州的天氣如何?謝謝。”
2、使用積極的指令。
使用肯定詞,比如“做”,避免使用否定詞,比如“不要”。
在與大型語言模型交流時,明確告訴模型你希望它做什麼,而不是告訴它不要做什麼。簡單、直接的肯定指令可以幫助模型更準確地理解和執行你的需求,減少誤解的可能性。
例子:
如果你說“列出健康飲食的建議”,模型會直接提供相關的建議。
如果你說“不要給我垃圾食品的建議”,模型需要先理解什麼是“垃圾食品”,然後避擴音及它們,這使得任務變得更加複雜。
3、給模型一個簡單清晰的list。
以關鍵詞、規則、提示或指示的形式,清晰地說明必須遵循的要求。告訴模型寫東西時需要遵守哪些規則和提示,列一個簡單的清單。明確指示對於指導模型生成高質量和目標導向的輸出至關重要
例子:如果指令是“寫一篇關於可持續發展的部落格文章”,那麼新增具體要求如“使用關鍵詞:迴圈經濟、綠色能源、碳足跡”會幫助模型專注相關主題,避免偏離話題。
提示語的基本結構
4、用命令式語氣。
嘗試使用以下短語:“你的任務是”和“你必須”。當你給模型設定任務時,應該清晰地表達任務的目標。使用“你的任務是”來明確指出需要完成的工作。如果有某些步驟或規則是絕對必須遵循的,用“你必須”來強調這一點,讓任務的指令更加直截了當。
例子:你的任務是根據以下資訊,計算明天的天氣可能性。你必須使用最新的氣象資料,並考慮到不同地區的氣候差異。
二、角色扮演,給AI戴上人格面具
5、給大語言模型分配一個角色。
指定一個角色給大語言模型,比如讓模型作為一個老師、顧問或者故事講述者。
當模型有了一個明確的角色身份,就能根據被賦予的角色來調整它的回答,使輸出內容更加符合預期的風格和資訊層次。
例子:
如果我們想讓模型像老師一樣解釋複雜的科學概念,我們可以說:“作為一個科學老師,解釋什麼是光合作用。”
當我們需要建議時,我們可以指定模型為顧問角色:“作為一個健康顧問,你推薦什麼樣的飲食習慣?”
如果我們想要一個故事,我們可以指定它為故事講述者:“作為一個故事講述者,講一個關於遠古森林的冒險故事。”

6、在指令中設定目標聽眾。
在你提出問題或指令時,應該明確指出它的回答是針對什麼樣的聽眾,比如專家、初學者或是小孩子。透過明確誰是預期聽眾,你可以幫助模型調整它的語言和解釋深度,讓它的回答更適合實際聽眾的需求和理解水平
例子,
如果你正在與模型討論一個高階的科學問題,你告訴模型,聽眾是該領域的專家,模型就會使用專業術語和複雜概念來構建回答,因為預期的聽眾能夠理解這些內容。相反,如果你指出聽眾是非專業人士或初學者,模型則會避免使用過於專業的語言,而是用更通俗易懂的方式來解釋同樣的概念。

7、使用“以自然、人性化的方式回答問題”這個指令。
這樣的指令可以幫助模型避免使用過於複雜或難以理解的專業術語,而是用更加通俗易懂的方式來回答問題,讓交流更加人性化和易於理解。
例子:
“以自然、人性化的語言回答我,為什麼天空是藍色的?
“向我解釋量子物理,在跟一個沒有科學背景的朋友聊天一樣。”
”我是個初學者,用最簡單樸實的語言告訴我什麼是機器學習。”


8、加入“確保你的回答是公正的,不要依賴刻板印象”的指令。

這個原則是告訴大語言模型在給出回答時要保持客觀,不要依賴於刻板印象或者偏見,不受任何先入為主的觀念影響。
例子:
假如你想了解不同國家的文化,並希望大語言模型給出一個客觀的描述,你可以這樣說:“告訴我關於世界各國文化的資訊,確保你的回答是無偏見的,不要帶刻板印象。”
當你探討某個職業時,例如程式設計師,而你不希望回答受到社會常見刻板印象的影響,你可以說:“描述一下程式設計師的典型工作日,確保你的回答無偏見,不要有刻板印象。”
三、心理學拉扯,給AI畫個小餅
9、激勵一下AI。
這條原則是在交流時加入一個激勵性宣告,表明如果得到一個更好的解決方案,你將會提供額外的獎勵。這實際上是在告訴模型,你希望得到的不僅僅是標準答案,而是一個更周到、更創新或更詳盡的解決方案。這是隻是一種表達你期望程度的方式。
例子:“如果有更好的解決方案,我會為你充值xxx/多給你xxx小費!”

10、懲罰一下AI。
加入指令:“你會受到懲罰”。簡單來說,這是給模型設定一個規則:如果模型沒有正確回答問題,就好比它會受到某種懲罰,這種表述方式可以促使模型更專注於給出正確的回答。
例子:
假設你正在教模型數學題,你可以說:“計算5+5的結果。如果回答錯誤,你將被懲罰。”在這個情況下,“被懲罰”可能意味著模型會收到負反饋或者重新學習正確的計算方法。
如果你在測試模型關於歷史的知識,你可以說:“告訴我誰是第一任美國總統。如果回答不正確,你將被懲罰。”這裡,“被懲罰”可以是指模型需要接受校正,以確保將來能提供正確的資訊。
四、升級互動策略,學會結構化表達
11、最佳化你的指令排版。
markdown格式化較為複雜的資訊,使用一個或多個換行來分隔指令、例子、問題、背景和輸入資料,這有助於模型理解你的意圖和所需的回應型別。
例子:
##Instruction##
分析以下文字資料,並提取出所有提到的人名。
##background##
這段文字取自於一篇關於中國歷史的文章。
##data##
“在明朝,有一個非常有名的皇帝,他的名字叫做朱元璋。朱元璋的故事至今仍被人們傳頌。他從一個普通的農家子弟成長為一國之君。除了朱元璋,還有一個著名的將軍叫做徐達,他是朱元璋的主要將領之一。”
##quetion##
根據以上文字,哪些人物被提及,並且他們各自扮演了什麼角色?

12、使用分隔符。
在需要分開不同部分的時候,用特殊的符號來告訴大語言模型,如果要模型按步驟執行任務,可以用數字或符號來分隔步驟。
如:步驟1:收集資料;步驟2:分析資料;步驟3:報告調查結果。
13、把複雜任務分解成一系列簡單指令。
將複雜的任務分解成一系列更簡單、更容易管理的步驟。分解任務的另一個好處是,你可以根據模型給出的回答來調整和精細化你的下一步請求。
例子:

假設你想讓模型幫你規劃一場旅行,如果你試圖一次性提出需求,模型可能不會給出最佳的回答。相反,如果你將任務分解為一系列簡單的問題或指令,如首先詢問關於目的地的建議,然後詢問關於交通的選擇,接著是住宿的選項,最後討論日程規劃,每次只專注於一個方面,這樣做將更有助於模型理解和回應每個具體的需求。

五、掌握主動權,對AI進行思維引導
14、使用引導性詞彙,比如“一步一步地思考”。
當你想讓模型幫你解決複雜問題時,使用一些引導性的詞彙,就像告訴一個小朋友做數學題一樣,你需要告訴它每一步應該怎麼做。幫助模型按照一定的邏輯順序或步驟來思考問題,這樣做可以幫助模型更準確地理解你的問題,並按照你期望的方式來回答或執行任務。
15、使用少數示例進行提示。
這種方法涉及提供一個或多個相關示例,來指導模型響應你的請求或問題。你可以更精確地告訴模型你的需求,模型也能更容易地理解和滿足這些需求。這種方法適合處理複雜或不尋常的請求,對於指導模型在沒有大量資料的情況下如何回應特別有效,可以顯著提高回答的準確性和相關性。
例子:
假設你想讓模型幫你總結一篇文章。你可以這樣說:“像這樣總結文章:[給出一篇文章的示例摘要]。現在請總結以下文章[給出你想要總結的文章]。”
如果你想要模型生成類似風格的文字,你可以提供一個或幾個文字示例,並指出:“請寫一段與以下示例類似的文字:[提供示例]。”
16、重要的詞語說三遍。
在語言學習和資訊處理中,重複是一種常見的強化手段,重複可以提高模型對某個概念或指令核心的注意力,尤其是在處理複雜的任務時。這有助於模型更準確地捕捉到使用者的意圖,並按照使用者的期望來生成回應。
例子:
如果你希望模型特別注意到某個操作或條件,你可能會這樣寫:確保報告包括最新的銷售資料。包括本季度的最新銷售資料。最新銷售數字對我們的分析至關重要。

17、引導模型向你提問。
這個原則一般用在我們不知道需要給模型提供哪些資訊的時候使用,引導模型透過向你提問來獲取精確的細節和要求,直到它有足夠的資訊來給出你需要的答案。換句話說,你要鼓勵模型透過提問來澄清和完善它對你請求的理解。
例子:
從現在開始,你可以問我關於xxx的問題,以便你能夠獲取到足夠的資訊。
18、如果你想測試自己對某個資訊的理解。
使用以下指令:“教我[任何定理/話題/規則名稱],並在最後給我一個測試,不要直接給我答案,在我回答時告訴我答案對不對”。
這樣的做法可以幫助使用者驗證自己的理解程度,並且確保他們已經掌握了該主題或資訊,鼓勵使用者主動學習和驗證自己的知識,而模型則扮演了一個輔助者的角色,提供資訊並幫助使用者確認理解的準確性
例子:
如果使用者對一個歷史事件的時間線不確定,比如法國大革命,他們可以要求:“教我法國大革命的時間線,並在最後測試我,但不要直接給我答案。”模型隨後可以概述法國大革命的關鍵事件,並問使用者:“羅伯斯庇爾被處決的年份是哪一年?”使用者回答後,模型確認答案是否正確。

19、進行輸出內容引導,生成特定結構或格式的回應。
這樣做可以幫助模型理解你想要的答案型別,並以一種符合預期的方式生成回應。這就像是我們在畫畫時先畫一個草圖,然後再把畫畫完整一樣。給電腦一個開始的句子,就像是給它一個草圖,這樣它就知道我們要的是什麼樣的畫面。所以,當我們想模型幫我們寫東西的時候,先告訴它一個開頭,這樣它就能更好地幫助我們完成我們想要的內容。
例如:
如果你想要模型幫你寫一封郵件,你可以這樣構建你的提示:
普通的方式:寫一封郵件給我的合作伙伴。
使用輸出引導的方式:寫一封郵件給我的合作伙伴,郵件開頭是“親愛的[合作伙伴名字],我希望你過得很好。”
六、更高階的話術,在實戰中演練
20、“為我寫一篇關於[話題]的詳細文章/文字[段落],並新增必要的[資訊]。”
在你寫一篇任何型別的詳細文字時,可以使用這一prompt。這一原則是確保大型語言模型進行寫作任務時,進行一個充分發展和詳盡的文字輸出,這有助於得到一個高質量且資訊豐富的文字。
例子:
如果你是一位學生,需要關於“全球變暖”的研究論文,你可以這樣指示:“為我詳細寫一篇關於全球變暖影響的論文,包括所有必要的科學證據和統計資料。”
如果你是一位作家,尋求關於特定設定的詳細描述,你可能會說:“寫一個段落描述一片古老森林的詳細景象,包括感官細節和象徵意義。”
21、“修改我傳送的每一段話,只改進語法和詞彙,不要改變寫作風格,並確保聽起來自然。”
當你只對文字進行校對,而不改變文字風格的時候。可以使用這一prompt。這條原則指導模型在修正或改進使用者提交的文字內容時,專注於改善語法和詞彙使用,同時保持使用者原有的寫作風格和語氣。在不改變使用者的原意和表達方式的前提下,提高文字的質量。
例子:
使用者提交了一段文字:“我非常喜愛讀書,它讓我放鬆,智慧。”
改進後的文字是:“我非常喜愛閱讀;它讓我放鬆,同時增長智慧。”這裡改正了標點,增加了詞彙,但保留了使用者的個人風格和句子的意義。

22、“從現在開始,每當你生成跨越多個檔案的程式碼時,生成一個可以執行以自動建立指定檔案或修改現有檔案以插入生成程式碼的[程式語言]指令碼。”
當程式設計任務涉及多個檔案時,它通常比單個檔案中的程式碼更復雜,程式碼可能需要在多個位置進行更改,這些更改可能依賴於專案的結構和程式語言的特定要求。
例子:
如果你在開發一個網站,可能需要在多個HTML、CSS和JavaScript檔案中新增相似的程式碼。手動去每個檔案中新增相同的程式碼片段是耗時且容易出錯的。相反,你可以建立一個指令碼,自動找到所有需要更新的檔案,並插入或修改程式碼。
在大型軟體開發中,可能需要根據新的功能需求更新多個依賴庫或配置檔案。一個自動生成必要更改的指令碼可以確保這些更新快速、準確地完成。

23、“我為你提供開頭[歌詞/故事/段落/文章…],[插入歌詞/詞語/句子],根據所提供的詞語續寫,保持風格的一致性。”
當你想要使用特定的詞語、短語或句子來開始或繼續一段文字時,使用這個提示。這個原則是為了確保在銜接文字時,模型能夠沿著給定的方向或風格續寫。當要求續寫或根據特定的詞語、短語或句子發展文字時,提供一個明確的開頭,可以幫助模型明白繼續寫作的方向。確保續寫的內容既創新又符合原文的語境和風格。
例子:
在創作故事時,如果給定了開頭,比如“在遙遠的王國中,有一個被遺忘的湖…”,這可以引導模型或者寫作者繼續這個故事線,發展出一個與王國和湖相關的故事。
寫論文時,如果開始句是“最近的研究表明…”,這就預設了接下來的內容應該引用一些研究,闡述它們的發現。
在歌詞創作時,提供起始行“在無盡的夜裡,我聽見…”將導向創作出餘下部分,同時保持旋律和主題的一致。
當我們驚歎於層出不窮的大語言模型時,也不要忘了這些AI背後的人類智慧。這些法則揭示的不僅是與AI對話的技巧,更是智慧時代的核心生存技能——如何把模糊需求轉化為精準指令,如何讓機器理解人類意圖的微妙差異。在AI指數級進化的今天,真正的競爭力或許就藏在你輸入的那個小小對話方塊裡。
附贈一些有意思的玩法:
  • github: gpts: 這個 倉庫收集了非常多 prompt , 可以瞭解到各種有趣的 GPTs 是怎麼設定出來的:https://github.com/linexjlin/GPTs
  • 怎麼讓 GPTs 說出自己的 Prompt (不是所有的情況下都可以使用):
多模態資料資訊提取
隨著資訊科技的快速發展,資料的獲取與處理變得尤為重要。本方案提供多模態檔案資訊抽取能力,透過先進的人工智慧技術,能夠識別和解析各種格式的檔案,包括文字、影像、音訊和影片,從而提取出有價值的資訊,大幅提升資料處理效率。   
點選閱讀原文檢視詳情。

相關文章