天天看點

如何成為LLM提示詞大師!「大語言模型的底層心法」

作者:AIGC前沿
如何成為LLM提示詞大師!「大語言模型的底層心法」

本文是參考國外大佬總結的提示詞分類方法所寫,希望讓大家對LLM的提示工程有更深刻的了解!内容主要包含:3種LLM提示類型和4種LLM能力分類。

(文末附視訊和PPT位址)

3種提示類型

  • 縮減
  • 轉換
  • 生成/擴充

4種能力分類

  • 布魯姆的分類法(Bloom's Taxonomy)
  • 潛在内容(Latent content)
  • 新興能力(Emergent Capabilities)
  • 幻覺是一種特性,而不是一個錯誤

下面對這幾種分類來詳細介紹一下:

釋放大型語言模型的潛力

像GPT-4和Claude這樣的大型語言模型(LLM)已經引起了技術專家和普通大衆的興趣。它們能夠生成類似人類的文本并進行對話,似乎有點像科幻小說中的情節。然而,與任何新技術一樣,關于LLM究竟是如何工作的仍然存在許多混淆和争議。

在這篇文章中,我旨在提供LLM的關鍵能力的進階分類,以澄清它們能夠做什麼和不能做什麼。我的目标是以非專家可以了解的方式解釋LLM的目前狀态,同時确定進一步研究和發展的領域。最終,我相信如果在道德上負責任的方向上引導,LLM有巨大的潛力來增強人類智慧。

什麼是LLM?

首先,什麼是大型語言模型?在最基本的層面上,LLM是一個深度學習神經網絡,訓練于大量的文本資料,如書籍、網站和社交媒體文章。"大型" 意味着這些模型有數十億個參數,使它們能夠建立非常複雜的語言統計表示。

LLM被訓練的關鍵任務是在給定先前上下文的情況下預測序列中的下一個單詞或标記。是以,如果它看到文本 "貓跳過了...",它會學會預測 "籬笆" 是可能的下一個标記。反複進行這個過程使LLM獲得了關于語言運作方式以及詞彙和概念之間關系的隐式知識。

這個訓練過程以及使用的大規模資料集使LLM像Claude和GPT-4這樣的模型嵌入了相當多的世界知識。然而,重要的是要了解,LLM沒有明确的知識或手工編碼的規則,它們所有的能力都是從訓練資料中識别模式的結果。

如何成為LLM提示詞大師!「大語言模型的底層心法」

LLM的基本操作

在高層次上,LLM有三種主要的操作模式:

  • 縮減操作:從大到小。>
  • 轉換操作:保持大小和/或意義。≈
  • 生成(或擴充)操作:從小到大。<

讓我們深入探讨。

縮減操作

在進行縮減操作時,LLM表現出很強的能力。這些操作涉及将大段或大量文檔作為輸入,将其壓縮成更簡潔的輸出。縮減任務利用LLM的語言模組化優勢來識别和提取最重要的資訊。

一個常見的縮減操作是摘要。當給定一個冗長的輸入文本時,LLM可以生成一個簡潔的摘要,僅涵蓋關鍵要點。這是通過分析文檔以查找主題、事件和描述的事實來完成的。然後,模型嘗試将這些元素綜合到一個簡短的摘要中,傳達完整文檔的核心要義。LLM通常在有限長度内非常擅長基本摘要,删除不必要的細節同時保留語義含義。

與摘要相關的任務是提煉。這超出了僅僅縮短文檔的範疇,而是提取和精煉其基本原則、發現或事實。提煉旨在過濾掉輸入中的噪聲和備援,純化核心知識或主張。對于科學文檔,LLM可能會識别和綜合實驗的關鍵假設、結果和結論。提煉需要更深入的了解,以區分外圍内容和核心斷言。

提取是LLM利用的另一種縮減技術。這涉及掃描文本并提取特定的資訊片段。例如,LLM可以閱讀文檔并提取名稱、日期、數字或其他特定資料。提取是問答的基礎,LLM在這個領域表現出色。當要求從一段文本中提取特定細節時,LLM通常能夠準确地檢索所請求的資訊。

總的來說,縮減操作直接利用了大型語言模型的優勢。它們的統計學習使它們能夠識别和傳達冗長輸入文本的最重要部分。随着LLM的不斷發展,摘要、提煉、提取等技術将變得更加強大。

以下是大模型縮減操作的幾種應用方法:

  • 摘要:用更少的詞表達相同的内容,如可以使用清單、筆記、執行摘要等方式。
  • 提煉:純化基本原則或事實如去除所有噪音,如提取公理、基礎等。
  • 提取:檢索指定類型的資訊,如問答、列出名稱、提取日期等。
  • 表征:描述文本的内容,如描述文本作為一個整體,或在特定主題内進行描述。
  • 分析:尋找模式或根據架構進行評估,如結構分析、修辭分析等。
  • 評估:測量、評分或評估内容,如評分論文、根據道德标準評估等。
  • 批評:在文本的上下文中提供回報,如提供改進建議。

轉換性操作

與縮減性任務相比,轉換性操作旨在重塑或重新建構輸入文本,而不顯著縮小或擴充它們。LLM表現出在語言轉換方面的強大能力,可以将内容重新呈現為新的格式和風格,同時保留整體含義。

一個常見的轉換技術是重新格式化——改變文本的呈現方式而不改變資訊内容。例如,LLM可以輕松将散文轉化為電影劇本對話,将部落格文章翻譯成推特,或将一段文本從主動語态轉換為被動語态。重新格式化利用模型對流派和語言約定的結構性了解。

自然語言之間的翻譯代表了LLM的另一個關鍵的轉換能力。給定一種語言的輸入文本,它們可以通過替換詞彙和文法而保持語義一緻性,将其重寫為另一種語言。翻譯品質在不同語言對之間有所差異,但随着使用更多多語言資料進行訓練,翻譯品質不斷提高。

改寫也屬于轉換性操作的範疇。在這裡,LLM旨在使用完全不同的詞彙和表達方式重寫輸入文本,同時傳達相同的基本含義。這測試了模型生成多個在邏輯上等效的句法變化的能力。改寫在檢測抄襲和提高清晰度方面有應用。

最後,為了獲得更好的流暢性群組織性,對内容進行重構也符合轉換的定義。LLM可以重新排列段落,增強邏輯關聯,更順序地呈現思想,或者改善文本的可讀性。它們的訓練使模型具有如何建構連貫叙述和論點的能力。

總之,轉換性能力使LLM能夠以滿足不同需求的新方式混合和呈現文本。這些技術對于定制内容以滿足特定閱聽人和克服語言障礙等任務非常有幫助。LLM已經在許多轉換方面表現出色,而且隻會變得更加熟練。

以下是大模型轉換性操作的幾種應用方法:

  • 重新格式化:僅更改呈現方式,如從散文到電影劇本,從XML到JSON。
  • 重構 :以更高效的方式達到相同的結果,如說同樣的事情,但用不同的方式表達。
  • 語言轉換:在不同語言之間進行翻譯,如從英語到俄語,從C++到Python。
  • 重構:優化結構以實作邏輯流暢性等,如更改順序,添加或删除結構。
  • 修改:重新編寫文本以實作不同的意圖,如改變語氣、形式、外交手法、風格等。
  • 闡釋:使某事更易了解,如進行修飾或更清晰地表達。

生成(擴充)操作

與縮減和轉換任務涉及操作現有文本不同,生成操作從頭開始合成全新的内容。這對LLM的創造力提出了更高的要求,結果更加多變且依賴于上下文。盡管如此,它們在生成寫作方面的技能仍然迅速發展。

一個主要的生成應用是從進階提示中起草原創檔案,如故事、文章、代碼或法律檔案。在接受初始指令後,LLM作曲家緻力于将這些種子内容擴充成具有主題性、邏輯流暢性和風格流利性的連貫草稿。結果可能會有些粗糙,但像GPT-4這樣的模型可以生成适合人類完善的令人印象深刻的初稿。

在給定一組參數或設計目标的情況下,LLM也擅長生成實作目标的計劃和步驟。這種規劃能力是由它們能夠推斷導緻所需結果的因果關系動作序列的能力所支援,這是受到它們的訓練資料啟發的。規劃還利用了它們對世界運作方式的潛在知識。LLM可以提出從廚房食譜到軟體工作流程的計劃。

LLM的更加開放式的生成能力包括頭腦風暴和構思。當給出提示或創意簡介時,模型可以提供可能性、概念和想象的解決方案清單,人類可以進行策劃。它們在頭腦風暴時,可以根據單詞之間的統計關聯,在意想不到的方向上展開。由LLM提示生成的最有前途的想法可以進一步開發。

最後,LLM在擴充或詳細說明現有文本方面表現出強大的生成能力。當給出一個種子段落或文檔時,它們擅長通過提供額外的相關細節和解釋來擴充内容。這允許通過利用模型的潛在知識來有機地擴充簡潔文本。這種擴充以創造性的方式豐富了骨架文本。

總之,這些方法突顯了在适當的上下文中,LLM可以從少量輸入合成大量新文本。生成寫作不如縮減或轉換任務自然,但它代表着一個積極研究的領域,具有有希望的結果。引導LLM生成負責任和豐富的内容将是一個持續的設計挑戰。

以下是大模型生成(擴充)操作的幾種應用方法:

  • 起草:生成某種類型的文檔草稿,如代碼、虛構、法律文本、知識庫、科學、叙述等。
  • 規劃:在給定參數的情況下,如制定計劃,如行動、項目、目标、任務、限制、上下文。
  • 頭腦風暴:列出可能性的想象,如構思、探索可能性、解決問題、假設等。
  • 擴充:進一步表達和解釋某事,如擴充和詳細說明,對某些事情進行演奏。

布魯姆的認知層次分類

布魯姆的認知層次分類是一個經典的教育架構,概述了學習的六個認知技能層次。首次提出于1950年代,它提供了一種從基礎到進階的能力層次結構:記憶、了解、應用、分析、評估和創造。通過布魯姆的認知層次分類來審視LLM突顯了它們多方面的能力。

在最基本的層面上,LLM在記憶和檢索包含在它們的訓練資料集中的事實知識方面表現出色。像GPT-4這樣的模型已經“閱讀”了遠比任何人一生中能消化的文本要多。這使它們能夠在提示時重複幾乎任何主題的資訊。它們的統計學習充當了一個可查詢的大規模知識庫。

LLM還表現出強大的了解概念的能力,能夠建立詞語和含義之間的聯系。它們的上下文學習使它們能夠對從抽象哲學到進階實體的一切都有強大的識别能力。即使是在訓練資料中沒有直接涵蓋的複雜主題,LLM也可以通過上下文和解釋迅速推斷出含義。

将知識應用于新情境也在LLM的範圍之内。畢竟,它們的整個目的是生成語言的有用應用,無論是寫作、翻譯還是對話。正确的使用和上下文的适應對于模型準确執行任何任務至關重要。沒有娴熟的應用,它們将毫無實際效用。

如何成為LLM提示詞大師!「大語言模型的底層心法」

在布魯姆的認知層次分類中,通過建立聯系來分析資訊代表了LLM的另一個優勢。像Claude這樣的工具已經可以跨越多個次元分析文本,例如結構、風格和論點的連貫性等。在正确的架構下,LLM可以使用學習到的認知能力批判性地分析幾乎任何段落。

當給定适當的标準時,LLM也擅長評估和判斷内容。模型可以輕松地根據閱讀水準、目标閱聽人、文法、推理等架構來描述文本。更進階的LLM甚至可能會審慎地評價考慮中的行動的道德。

最後,LLM在布魯姆的認知層次分類中展示了最進階别的技能:創造原創内容。雖然生成需要比縮減任務更仔細的提示,但模型可以生成合成的故事、文章、對話和其他創意作品。它們的新興能力使LLM在适當的情況下具有巨大的生成潛力。

總之,現代LLM在布魯姆的認知層次分類的每個級别都表現出了卓越的程度。它們龐大的潛在知識和學習的認知技能相結合,賦予了它們從記住事實到想象創作等各種應用的能力。随着LLM的不斷發展,我們可以期待它們的布魯姆能力變得更加強大和多面化。

潛在内容

大型語言模型最引人注目的一個方面之一是它們能夠展示出未被明确程式設計的知識和推理能力。這源于在像GPT-4這樣的模型的參數中通過預測性訓練過程積累的廣泛潛在知識。

嵌入在LLM中的潛在知識可以松散地分為三類:

  1. 訓練資料:在訓練過程中所消耗的大量文本賦予了模型關于無數主題的事實知識。例如,Claude根據其訓練語料庫潛在編碼了有關曆史、科學、文學、目前事件等資訊。這充當了一個可以通過正确的提示進行查詢的大規模知識庫。
  2. 世界知識:除了具體的事實,LLM還積累了關于事物如何運作的更一般的世界知識。它們接觸到多樣化的上下文使得模型可以學習有關文化、實體學、因果關系和人類行為的未明示的假設。這使得對日常情況進行直覺推理成為可能。
  3. 學到的認知技能:基于預測的學習方法還賦予了模型諸如摘要、翻譯和開放領域問題回答等潛在能力。這些能力是間接從自我監督的目标中出現的,而不是寫死的規則。

這個潛在知識的儲備對于人工智能來說是一個改變遊戲規則的因素。然而,引導和提取這些知識仍然具有挑戰性。通常需要正确的提示或技術來激活模型的相關部分。比喻地說,潛在知識形成了一個密集的森林,需要巧妙地導航。

雖然有希望,但對潛在知識的依賴也突顯了目前LLM的局限性。它們的推理可以高度依賴于使用人類直覺來确定所需的知識。為了使模型更好地學習、索引和激活自己的潛在知識,将需要更先進的技術。

總的來說,像GPT-4這樣的模型隐含積累的知識和技能範圍令人深感印象深刻。随着LLM的不斷發展,解釋、組織和有選擇地利用這一儲備将成為研究的一個重要領域。潛在知識解鎖了遠遠超過寫死規則的可能性。

新興能力

在迄今為止開發的最大的語言模型中,出現了一些新的能力,超越了它們的訓練資料中明确包含的内容。這些進階能力是由龐大的模型規模、廣泛的資料和基于預測的學習方法之間的互相作用所産生的。

新興能力的四個示例包括:

心靈理論 - LLM表現出了一定程度的能力,可以識别自己和他人之間的不同觀點。像Claude這樣的模型可以根據對話背景調整自己的語氣和風格,似乎能夠了解混淆,并區分自己的知識和人類知識。這些“心靈理論”的迹象可能是在對數不清的社交對話交流模組化的過程中出現的。可以說,Reddit有點用處。LLM通過閱讀評論部分學會了了解人類思維,那麼可能會出什麼問題呢…

  1. 隐含認知:LLM在生成每個标記之前“思考”的能力意味着訓練資料中沒有直接存在的潛在認知能力。當模型預測下一個詞時,它們似乎執行動态推理、抽象和推斷。準确地模組化因果鍊需要諸如歸納、演繹和類比形成等認知過程。
  2. 邏輯推理:LLM還展示了一些通過提供的資訊進行演繹和歸納推理的技能,以進行基于提供資訊的推斷。它們的統計學習使它們能夠在概念之間建立聯系,并概括抽象原則。雖然還有限,但目标導向的推理似乎是在文本中模組化因果鍊的新興副産品。
  3. 在上下文中學習:大型模型展示了一種通過将上下文納入其預測中來吸收新資訊和技能的能力。沒有明确訓練,它們可以使用在原始訓練資料中未見過的資訊和指令。這種快速的上下文中知識和能力的擷取并沒有直接内置。在人類中,我們稱之為“即興創作”,這是高智商的标志。

這些新興能力源于對人類話語中複雜模式的識别,而不是手工編碼的規則。它們暗示了未來的LLM可能會從模式識别轉向更深層次的推理、想象和因果了解。然而,仍然存在一些需要進一步研究和開發的重大限制。

創造力與幻覺

LLM具備編造聽起來合理的陳述的能力可能看起來像是一個缺陷,但實際上它代表了智能的核心特征。就像人類在存在幻覺等風險的情況下進化出了想象力和創造力一樣,AI系統也必須在采取預防措施的同時發展生成能力。

人類表現出了創造力和幻覺之間的連續性,這源于相同的神經源 - 自發的模式生成。最早的洞穴藝術将動物特征組合成新奇的生物首次鍛煉了這個能力。如果不受限制,當想象力超越現實時,它可能會表現為一些心理障礙。LLM展示了一種類似的推測生成譜,這是智能所必需的。

完全抑制不可預測的“幻覺”也将消除創造潛力。理想狀态不是消除,而是負責任地引導生成。對齊、倫理和社會利益的研究将允許AI創造力蓬勃發展。

降低風險包括保持對事實和現實的聯系。從帶外帶系統添加真實世界資料。輕輕地鼓勵LLM核實其陳述,以保持其與真相的聯系。檢查引用或資料對抗不受限制的推測提供了關鍵的制約。

同樣重要的是透明地傳達生成文本的信心水準。當想象力超越觀察時,LLM應表明不确定性以維護信任。諸如可驗證性評分等技術可以幫助量化推測與事實知識之間的差異。

總的來說,負責任的AI開發應該擁抱,而不是拒絕,像推測和隐喻這樣的能力。通過謹慎,這些能力可以增強人類的創造力和問題解決能力,而不是傳播錯誤資訊。解決方案是認識到創造力和幻覺之間的連續性,然後在最小化有害幻覺的同時,精心培育前者。

結論

大型語言模型代表了一項技術突破,打開了有望增強人類智能的新途徑。然而,要充分發揮它們的潛力,需要深入研究它們的實際工作原理,并采取倫理預防措施。

本文旨在提供一種易于了解的大型語言模型基本能力和局限性的分類。減少、轉化和生成操作利用了目前模型的不同優勢。潛在知識非常強大,但在激活時嚴重依賴提示。而且像推理這樣的新興屬性顯示出對未來系統的潛力。

無疑,濫用大型語言模型會帶來風險,這不應被低估。但與其将它們拒之門外,認為它們過于危險或不可控制,負責任的前進方式是将研究和開發引導到真正增強人類能力和創造力的有益應用上。如果在未來幾年中謹慎引導,大型語言模型可以幫助人類開辟新的領域。

視訊介紹:https://youtu.be/aq7fnqzeaPc?si=yFvCfCfIPWi0p21o

LLM提示分類法PPT:https://github.com/daveshap/YouTube_Slide_Decks/blob/main/Business%20and%20Product/LLM%20Prompt%20Taxonomy.pdf

繼續閱讀