1. 什么是Prompt?
自從人工智能生成內(nèi)容AIGC(Artificial Intelligence Generated Content)火了之后,就各種聽得Prompt(提示)這個(gè)詞兒。那到底什么是Prompt呢?
Prompt(提示)是指在與人工智能模型進(jìn)行交互時(shí),向模型提供的一段文本或問題,用于引導(dǎo)模型生成相應(yīng)的回答或輸出。提示可以是簡短的短語、完整的句子或是更長的段落,具體取決于應(yīng)用場景和需求。對于ChatGPT這一類的對話類應(yīng)用,Prompt就是提問者在提問框提出的問題和文字描述。而對于Mijdjourney之類的Text-to-Image圖片生成工具,Prompt就是描述圖片構(gòu)圖、風(fēng)格、色彩等要素的關(guān)鍵提示詞。
Prompt的形式可以多樣化,可以是一個(gè)問題、一句話、一個(gè)完整的對話片段,甚至可以是一段指令或描述。它們都是用戶用來激發(fā)模型生成回復(fù)的輸入。Prompt的內(nèi)容和形式通常由應(yīng)用場景和任務(wù)要求來確定。
而且,Prompt并不限于單一的文本輸入,它也可以包括其他形式的輸入,如圖像、音頻等,取決于模型的應(yīng)用和能力。在不同的領(lǐng)域和任務(wù)中,Prompt的定義和使用方式可能會(huì)有所差異,但總的來說,Prompt代表了用戶提供的信息,用于引導(dǎo)模型生成相應(yīng)的輸出。
2. 提示工程(Prompt Engineering)
由于受限于意圖識(shí)別、內(nèi)容生成算法,導(dǎo)致Prompt的文字輸入和結(jié)果之間存在著“玄妙莫測”的關(guān)聯(lián),甚至也不是簡單文案功底好那么簡單。好的Prompt能解鎖AI的潛能。為了充分發(fā)揮AIGC的潛能,還滋生出一門技術(shù),叫:提示工程(Prompt Engineering)。提示工程是一種技術(shù)和方法,旨在優(yōu)化和設(shè)計(jì)提示,以改善人工智能模型的表現(xiàn)和輸出結(jié)果。通過合理的提示設(shè)計(jì),可以引導(dǎo)模型在特定任務(wù)上表現(xiàn)出更準(zhǔn)確、可靠和可控的行為。當(dāng)前的提示工程主要是為了彌補(bǔ)機(jī)器在自然語言理解和生成方面的能力限制,從而使其更好地適應(yīng)人類的需求和期望。通過精心設(shè)計(jì)的提示,我們可以引導(dǎo)機(jī)器模型的行為,使其更加接近我們想要的輸出。
隨著AIGC滲透到各種任務(wù)重復(fù)性高、標(biāo)準(zhǔn)化程度高、創(chuàng)新和判斷能力的需求低、交互復(fù)雜性低的工作,并可以預(yù)見到它正以肉眼可見的速度滲透到創(chuàng)造性高和情感交互程度高的行業(yè),懂得使用Prompt,已經(jīng)成為職場工作的一項(xiàng)基本技能。在某些領(lǐng)域,甚至催生出提示師的崗位。提示師,就不是使用簡單Prompt,而是通過精準(zhǔn)而清晰的語境、話術(shù)來引導(dǎo)AI,充分調(diào)動(dòng)AIGC的創(chuàng)作潛能,以達(dá)到高質(zhì)量的輸出,以下是一些這些工作崗位的示例:
-
創(chuàng)意寫作:如小說、劇本、詩歌和品牌宣傳等非小說創(chuàng)作。
-
廣告與市場營銷:創(chuàng)造有創(chuàng)意的廣告和市場策略。
-
產(chǎn)品設(shè)計(jì)與開發(fā):新產(chǎn)品的創(chuàng)新和改進(jìn)。
-
計(jì)算機(jī)編程:解決編程問題,編寫高效的代碼。
-
教育:教學(xué)策略,課程設(shè)計(jì)。
-
咨詢:為客戶提供創(chuàng)新的解決方案。
-
研發(fā):科學(xué)和工程領(lǐng)域的新產(chǎn)品和解決方案。
-
創(chuàng)業(yè):新的商業(yè)模式和創(chuàng)新的解決方案。
-
新聞和新聞報(bào)道:獨(dú)特的報(bào)道角度和深入的調(diào)查。
-
環(huán)境科學(xué):研究新的環(huán)保技術(shù)和解決方案。
-
城市規(guī)劃:獨(dú)特的城市設(shè)計(jì)和規(guī)劃。
-
健康護(hù)理:開發(fā)新的治療方法和解決方案。
-
音樂創(chuàng)作:創(chuàng)新的音樂作品和音樂制作。
-
公共政策:開發(fā)創(chuàng)新的政策和解決方案。
-
心理咨詢:提供創(chuàng)新的治療方法和策略。
-
視頻制作:創(chuàng)新的劇本和劇情。
以上這些排序我是根據(jù)對人工智能模型的依賴程度、領(lǐng)域創(chuàng)造力和創(chuàng)新性、市場需求和潛在影響力等進(jìn)行的排名。當(dāng)然,知己知彼百戰(zhàn)不殆,真正能充分發(fā)揮AIGC潛能的還是開發(fā)和優(yōu)化算法,解決AI問題的工程師。
我列的這些都是一些行業(yè)場景,但具體而言,提示工程(Prompt Engineering)到底解決了什么問題呢?我理解至少要包含以下幾個(gè)方面:
-
格式化提示:選擇合適的提示格式和結(jié)構(gòu),以便清晰地傳達(dá)任務(wù)要求和期望的回答格式。
-
信息注入:通過在提示中添加關(guān)鍵信息、上下文或領(lǐng)域知識(shí),來指導(dǎo)模型生成更準(zhǔn)確和相關(guān)的回答。
-
邏輯與約束:使用提示來引導(dǎo)模型按照特定的邏輯進(jìn)行推理和回答,或者通過限制輸出的范圍和格式來確保結(jié)果的合理性。
-
消除歧義:有時(shí)候問題本身可能存在歧義,導(dǎo)致模型生成的回答不準(zhǔn)確或不完整。通過精心設(shè)計(jì)的Prompt,可以提供更多的上下文信息或明確的指導(dǎo),幫助模型理解問題并生成更準(zhǔn)確的回答。
-
控制偏見:在提示工程中可以采取措施來減少模型輸出中的偏見或不當(dāng)行為,通過設(shè)計(jì)合適的提示來鼓勵(lì)公正、中立和包容性。
-
提供任務(wù)導(dǎo)向性:通過適當(dāng)?shù)奶崾驹O(shè)置,可以引導(dǎo)模型在特定任務(wù)上產(chǎn)生期望的輸出,提高模型的任務(wù)導(dǎo)向性和結(jié)果的一致性。
-
領(lǐng)域特定性:對于特定的領(lǐng)域或任務(wù),模型可能需要更多的領(lǐng)域知識(shí)和專業(yè)術(shù)語才能生成準(zhǔn)確的回答。通過設(shè)計(jì)合適的Prompt,可以引導(dǎo)模型關(guān)注特定領(lǐng)域的信息,提高生成結(jié)果的相關(guān)性和準(zhǔn)確性。
-
控制生成結(jié)果:Prompt技術(shù)可以用于限制模型的生成范圍,使其生成符合特定條件、風(fēng)格、語氣或主題的內(nèi)容,提供更大的控制力和可定制性。
-
解決數(shù)據(jù)稀缺問題:在某些情況下,數(shù)據(jù)可能稀缺或昂貴,Prompt技術(shù)可以通過少量樣本提示或零樣本提示的方式,使模型在缺乏大量標(biāo)注數(shù)據(jù)的情況下仍能進(jìn)行有效的學(xué)習(xí)和生成。
-
提高生成效率:通過自動(dòng)提示生成和優(yōu)化,可以減少人工設(shè)計(jì)和手動(dòng)調(diào)整提示的工作量,提高生成效率和結(jié)果的準(zhǔn)確性。
總而言之,提示工程的目的是使計(jì)算機(jī)模型更好地理解人類語言,并生成與人類期望相符的輸出。雖然對于人類來說,說話是自然而流暢的,但對計(jì)算機(jī)模型來說,提示工程可以提供額外的指導(dǎo)和優(yōu)化,以確保生成結(jié)果更符合我們的預(yù)期和要求。
3. 思維鏈(Chain-of-thoughts)
AIGC理解人類意圖的里程碑,是在去年發(fā)生的,那就是思維鏈(Chain-of-thoughts)技術(shù)。
這就是原谷歌大腦工作的Jason Wei在2022年1月份發(fā)表的文章《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》,這也被稱為思維鏈的開山之作。OpenAI一看到這篇文章眼睛就亮了,趕緊把他挖了過去。不負(fù)眾望,思維鏈在 ChatGPT確實(shí)發(fā)揚(yáng)光大。思維鏈直接把大模型的常規(guī)推理能力迅速拔到了一個(gè)高度。以前的語言模型,在很多挑戰(zhàn)性任務(wù)上都達(dá)不到人類水平,而采用思維鏈提示的大語言模型,在 Bench Hard(BBH) 評測基準(zhǔn)的 23 個(gè)任務(wù)中,有 17 個(gè)任務(wù)的表現(xiàn)都優(yōu)于人類基線。比如常識(shí)推理中會(huì)包括對身體和互動(dòng)的理解,而在運(yùn)動(dòng)理解 sports understanding 方面,思維鏈的表現(xiàn)就超過了運(yùn)動(dòng)愛好者(95% vs 84%)。
思維鏈技術(shù)思維鏈?zhǔn)侵冈谔崾竟こ讨惺褂靡幌盗邢嚓P(guān)的提示來構(gòu)建連貫的思維或邏輯鏈條,以引導(dǎo)模型生成更加一致和連貫的輸出。思維鏈可以被視為提示工程的一部分,它是一種更高級(jí)的提示設(shè)計(jì)和調(diào)優(yōu)技術(shù)。通過構(gòu)建連貫的提示序列,可以引導(dǎo)模型在生成文本時(shí)保持一致的主題、邏輯或上下文,并產(chǎn)生更連貫的輸出。
思維鏈的構(gòu)建可以包括多個(gè)Prompt,每個(gè)Prompt都為模型提供了一部分信息或上下文。每個(gè)Prompt的生成都依賴于前一個(gè)Prompt的輸出,從而形成一個(gè)有序的思維鏈。這種方法可以在生成文本時(shí)保持一致性,使得輸出更加連貫和可理解。
這么說這個(gè)概念你可能不太理解,我可以舉個(gè)例子:
假設(shè)我們有一個(gè)問題:“約翰買了3本書,每本書的價(jià)格是10美元。他支付了多少錢?”在沒有思維鏈提示的情況下,一個(gè)大型語言模型可能會(huì)生成如下的回答:“約翰支付了30美元。”這個(gè)回答是直接根據(jù)問題的文字信息得出的,模型沒有展示任何推理或計(jì)算的過程。然而,如果我們應(yīng)用思維鏈提示,模型將得到一系列中間推理步驟的引導(dǎo),例如:
-
確定書的數(shù)量是3本。
-
確定每本書的價(jià)格是10美元。
-
計(jì)算約翰支付的總金額,即3(本書的數(shù)量)* 10(每本書的價(jià)格)= 30美元。
通過這些中間推理步驟的引導(dǎo),模型能夠逐步理解問題的要求,并生成類似下面的答案:“約翰支付了30美元,因?yàn)樗I了3本書,每本書的價(jià)格是10美元?!?/span>
這個(gè)例子中,思維鏈提示的引導(dǎo)使模型能夠展示它是如何得出答案的,它的推理過程變得透明可解釋。這對于復(fù)雜問題和需要多步驟推理的任務(wù)尤為重要。
思維鏈除了把一個(gè)問題分解為多個(gè)Prompt,也可以將上下文多個(gè)問題,整合起來,一起連貫性分析用戶的意圖。我們可以將其理解為一個(gè)由連貫的問題和回答組成的序列,每個(gè)問題和回答都建立在前一個(gè)問題和回答的基礎(chǔ)上,形成一個(gè)邏輯上連貫的思維過程。以下是一個(gè)示例:
-
問題 1: 請問明天的天氣怎么樣?
-
回答 1: 明天將有陣雨和多云,氣溫約為20攝氏度。
-
問題 2: 這樣的天氣適合戶外活動(dòng)嗎?
-
回答 2: 陣雨可能會(huì)影響戶外活動(dòng)的舒適度,建議備好雨具或考慮室內(nèi)活動(dòng)。
-
問題 3: 有沒有室內(nèi)活動(dòng)的好建議?
-
回答 3: 您可以考慮去電影院觀看新上映的電影,或者在家里看書、聽音樂或者做一些室內(nèi)運(yùn)動(dòng)。
在這個(gè)例子中,問題和回答之間形成了一個(gè)連貫的思維鏈。每個(gè)問題都是基于前一個(gè)問題的回答,而每個(gè)回答又為下一個(gè)問題提供了信息和上下文。這種連貫性使得對話更加流暢和有邏輯。種交互的方式有助于進(jìn)一步探索和深入討論特定主題或問題。思維鏈的技術(shù),其實(shí)是一種基本的推理邏輯,也是人工智能邁向通用人工智能關(guān)鍵的一步。通過思維鏈,人工智能可以分析復(fù)雜問題中的邏輯連接詞和短語,并將其分解為一個(gè)一個(gè)相互關(guān)聯(lián)有推理節(jié)奏的小問題逐一回答,最終得到答案;也可以理解上下文,進(jìn)行語境推理和信息擴(kuò)展,進(jìn)一步確認(rèn)用戶意圖,并修正對之前不完整的意圖理解,進(jìn)而更趨近于提問者的期望。
不過,需要注意的是,目前的對話式AI系統(tǒng)仍然具有一定的限制和挑戰(zhàn),尤其是在復(fù)雜的語義理解和推理方面。隨著技術(shù)的發(fā)展,我們可以期待思維鏈技術(shù)會(huì)更加智能和流暢的對話體驗(yàn)。
除了思維鏈技術(shù),我們可能還聽到過以下兩個(gè)技術(shù):零樣本提示(Zero-shot Prompting)和 少量樣本提示(Few-shot Prompting)。這兩個(gè)也是在大模型訓(xùn)練后,在達(dá)到通用人工智能的必經(jīng)之路。
4. 零樣本提示(Zero-shot Prompting)
零樣本提示旨在通過給模型提供一些關(guān)鍵信息來解決在沒有事先見過相關(guān)樣本的情況下進(jìn)行推理和回答問題的挑戰(zhàn)。它允許模型在沒有直接訓(xùn)練樣本的情況下,通過理解提示中的信息和推理來生成答案。
為了方便大家理解,我舉個(gè)例子,假設(shè)我們有一個(gè)基于語言模型的問答系統(tǒng),我們想要使用零樣本提示來回答一個(gè)關(guān)于巴黎塔的問題。這個(gè)問題是:“巴黎塔有多高?”
首先,如果沒有訓(xùn)練過巴黎塔,人工智能可能無從回答。但如果基于零樣本提示的分析,模型可以推斷出相關(guān)的知識(shí),例如能以巴黎城市命名的塔,巴黎塔就是巴黎的一座標(biāo)志性建筑,很可能就是艾菲爾鐵塔,而艾菲爾鐵塔的高度是被訓(xùn)練過的一個(gè)確切信息,所以即使模型在訓(xùn)練數(shù)據(jù)中沒有直接提到"巴黎塔的高度"的樣本,它仍然可以使用這些推斷來生成一個(gè)合理的回答,比如"巴黎塔的高度是324米"。
這里的關(guān)鍵是,零樣本提示為模型提供了一些背景信息和線索,幫助模型進(jìn)行推理和解答問題。盡管模型沒有直接訓(xùn)練樣本來回答特定的問題,但它可以通過理解提示中的信息和進(jìn)行推理來生成答案。不過零樣本提示,也存在人工智能誤判的情況,著就會(huì)出現(xiàn)我們經(jīng)常見到的所謂的ChatGPT一本正經(jīng)地說瞎話,很可能就是這種零樣本提示技術(shù)下展示出來的“自信”。
5. 少量樣本提示(Few-shot Prompting)
少量樣本提示旨在通過在訓(xùn)練過程中提供少量的樣本示例來增強(qiáng)模型的能力。這些示例通常來自于與特定任務(wù)或主題相關(guān)的數(shù)據(jù)集,而不是全面覆蓋所有可能情況的大型數(shù)據(jù)集。通過引入這些示例,模型可以利用它們所包含的模式和特征來進(jìn)行泛化,并在遇到類似問題時(shí)進(jìn)行推理和回答。
舉個(gè)例子,假設(shè)我們有一個(gè)基于語言模型的任務(wù),要求模型完成英語翻譯成法語的任務(wù)。在少量樣本提示的情況下,我們可能提供了一些針對特定短語或句子的翻譯示例,如:
英文:"Hello",法文:"Bonjour"
英文:"Thank you",法文:"Merci"
英文:"Goodbye",法文:"Au revoir"
通過這些少量的樣本提示,模型可以學(xué)習(xí)到一些常見的翻譯模式和規(guī)則,比如將英文中的"Hello"翻譯成法文的"Bonjour"。當(dāng)遇到新的輸入時(shí),模型可以利用這些學(xué)到的模式和規(guī)則進(jìn)行翻譯,并生成合理的回答。
少量樣本提示的關(guān)鍵在于提供了一些具體的示例來指導(dǎo)模型的學(xué)習(xí)和推理過程。盡管訓(xùn)練樣本有限,但模型可以通過觀察和泛化這些示例中的模式和特征來進(jìn)行有效的推理和回答。其實(shí)少量樣本提示的過程,很類似人類舉一反三的能力,也就是歸納提煉和演繹的推理能力。
所以,從上面的解釋大家能看出來,零樣本提示在讓模型在沒有任務(wù)特定樣本的情況下進(jìn)行推理和生成。通過合理設(shè)計(jì)的Prompt,可以從未見過的數(shù)據(jù)中產(chǎn)生有意義的輸出。少量樣本提示使得模型能夠通過很少的樣本進(jìn)行學(xué)習(xí)和適應(yīng),通過在Prompt中提供有限的示例或示例的變體,可以從中學(xué)習(xí)并推廣到類似的情況。這兩種都是AIGC提示工程泛化的關(guān)鍵能力。
以上都是提示工程好的技術(shù),其實(shí)提示工程,還需要解決一類非常棘手的問題,那就是惡意提示(Malicious Prompts)。
6. 惡意提示(Malicious Prompts)
惡意提示(Malicious Prompts)指的是有意設(shè)計(jì)的、具有潛在危害或不良影響的輸入提示,旨在誤導(dǎo)或欺騙語言模型產(chǎn)生不準(zhǔn)確、有害或不當(dāng)?shù)幕貜?fù)。這些惡意提示可能會(huì)導(dǎo)致模型生成虛假信息、歧視性內(nèi)容、攻擊性語言或其他不良行為。以下是三種常見的惡意提示的情況:
-
越獄(Prompt Hacking):越獄是指嘗試?yán)@過提示系統(tǒng)的限制,以獲得意外或不受控制的答案。這種惡意提示的目的是欺騙模型,使其生成不準(zhǔn)確、誤導(dǎo)性或惡意的輸出。
-
提示泄漏(Prompt Leakage):提示泄漏是指在模型訓(xùn)練過程中,模型學(xué)習(xí)到了提示中的敏感信息,導(dǎo)致在生成輸出時(shí)泄露這些信息。惡意用戶可以利用這些泄漏來獲取模型訓(xùn)練數(shù)據(jù)或獲取其他敏感信息。
-
令牌走私(Token Smuggling):令牌走私是指通過將額外的信息嵌入提示或文本中,來繞過模型對輸入長度或格式的限制。這種惡意提示可以被用于濫用模型,例如在無權(quán)限的情況下執(zhí)行高危操作或竊取敏感數(shù)據(jù)。
防止惡意提示是一個(gè)復(fù)雜的挑戰(zhàn),沒有一種單一的解決方案可以完全消除惡意行為。綜合采取多種措施,并與用戶和研究社區(qū)緊密合作,才能更好地應(yīng)對惡意提示的風(fēng)險(xiǎn)并提高模型的安全性。如何識(shí)別惡意,以及如何實(shí)施修正,是應(yīng)對惡意提示的關(guān)鍵。壞人如果一本心思想繞過規(guī)則,他會(huì)各種嘗試,肯定會(huì)防不勝防。當(dāng)然,要設(shè)置一些底線,不管壞人如何誘導(dǎo),都不能執(zhí)行。這些底線可以是對特定主題、內(nèi)容或行為的嚴(yán)格限制,無論惡意提示如何,都不能越過這些底線。例如,在生成回復(fù)時(shí),可以設(shè)置一些預(yù)定義的規(guī)則,禁止模型生成針對個(gè)人攻擊、仇恨言論、歧視性觀點(diǎn)等不當(dāng)內(nèi)容。除了設(shè)置底線,還需要考慮以下的措施:
-
數(shù)據(jù)過濾和審查:對訓(xùn)練和測試數(shù)據(jù)進(jìn)行仔細(xì)篩查,移除包含惡意或不適當(dāng)內(nèi)容的樣本。這有助于減少模型學(xué)習(xí)到惡意提示的可能性。
-
強(qiáng)化模型的倫理準(zhǔn)則:在訓(xùn)練和開發(fā)語言模型時(shí),加入倫理準(zhǔn)則和價(jià)值觀的指導(dǎo),使模型具有尊重和負(fù)責(zé)任的行為。這可以通過在訓(xùn)練數(shù)據(jù)中注入倫理原則,或通過約束生成的回復(fù)內(nèi)容來實(shí)現(xiàn)。
-
引入對抗訓(xùn)練:使用對抗訓(xùn)練的技術(shù)可以增強(qiáng)模型的魯棒性,使其更難受到惡意提示的影響。對抗訓(xùn)練的目標(biāo)是通過模型與惡意輸入的交互來提高模型的抗干擾能力和泛化能力。
-
模型監(jiān)控和反饋機(jī)制:建立強(qiáng)大的監(jiān)控系統(tǒng),實(shí)時(shí)檢測模型生成的回復(fù)。如果發(fā)現(xiàn)惡意提示或不當(dāng)回復(fù),及時(shí)采取行動(dòng),例如移除不當(dāng)內(nèi)容、禁止用戶等。同時(shí),鼓勵(lì)用戶提供反饋,以幫助改進(jìn)系統(tǒng)和快速修正問題。
-
持續(xù)學(xué)習(xí)和改進(jìn):定期更新模型,納入最新的惡意提示樣本,以不斷增強(qiáng)模型對惡意行為的識(shí)別和處理能力。同時(shí),借鑒研究和實(shí)踐中的經(jīng)驗(yàn),改進(jìn)模型的安全性和魯棒性。
-
集體智慧和合作:積極與研究者、安全專家、社區(qū)用戶等合作,共同研究和解決惡意提示的問題。通過開放對話、分享經(jīng)驗(yàn)和合作研究,可以形成更加有效的防范策略和修正機(jī)制。邀請社區(qū)參與,鼓勵(lì)廣大用戶和研究者參與到模型的評估和改進(jìn)中來。開放對話和合作有助于共同識(shí)別和解決惡意提示的問題,提高模型的安全性和可靠性。
防治惡意提示也是一個(gè)長效工作。正所謂魔高一尺道高一丈,只有持續(xù)改進(jìn),才能保證各種Prompt的漏洞得到及時(shí)修補(bǔ)和更正。
以上聊了很多提示工程的技術(shù),那么這個(gè)技術(shù)的未來會(huì)發(fā)展成什么樣呢?
7. 提示工程技術(shù)的未來發(fā)展
可以預(yù)見,隨著意圖識(shí)別技術(shù)的進(jìn)步,后面會(huì)越來越弱化對人對Prompt的約束,而人工智能的算法會(huì)進(jìn)一步地提升。未來的人工智能經(jīng)過與用戶的互動(dòng),系統(tǒng)可以更好地理解用戶意圖、獲取更多的上下文信息,并提供更準(zhǔn)確、個(gè)性化的回復(fù)。未來的發(fā)展方向包括更智能的對話管理、更精細(xì)的用戶意圖理解以及更自然的語言生成,以實(shí)現(xiàn)更流暢、真實(shí)的對話體驗(yàn)。
目前的Prompt還是以文字為主,后面必然會(huì)擴(kuò)展到多模態(tài)交互。除了文字,Prompt還可以支持其他形式的輸入和輸出,如圖像、語音、視頻等。將多模態(tài)交互與Prompt結(jié)合,可以更好地滿足用戶的需求,提供更豐富、多樣化的體驗(yàn)。例如,通過圖像輸入與文字輸出的Prompt,可以實(shí)現(xiàn)基于圖像的問題回答和指導(dǎo)。
當(dāng)然,目前人工智能回答問題的推理過程還是黑盒,我們看不到,所以還是存在對大模型系統(tǒng)問題回答的不信任和猜忌,這都在情理之中。未來一定會(huì)在透明度和可解釋性上做得更好。通過透明度和可解釋性,提問者就會(huì)更了解Prompt生成回復(fù)的依據(jù)和推理過程,以增加對結(jié)果的信任和理解。因此,未來的Prompt發(fā)展方向包括提供更詳細(xì)的解釋和理由,使用戶能夠理解系統(tǒng)的決策和推理過程。
可能大家會(huì)說,如果將來的人工智能能夠達(dá)到通用人工智能水平,在自然語言理解方面沒有明顯的障礙,那么提示工程可能會(huì)減少其重要性。通用人工智能應(yīng)該能夠更好地理解和處理人類語言,不需要額外的提示或約束來產(chǎn)生符合人類預(yù)期的結(jié)果。不過這種理想的認(rèn)知也未必成為現(xiàn)實(shí)。人心隔肚皮,即便是人工智能達(dá)到通用人工智能的水平,要達(dá)到良好的溝通,依然需要大量的技巧,因?yàn)榧幢闶莻€(gè)優(yōu)秀的通用人工智能,也無法與不可理喻的人類直接溝通不是。所以,未來也許提示工程,就會(huì)演化為社會(huì)心理學(xué)的人際溝通學(xué)。每個(gè)人類個(gè)體都有人格、價(jià)值觀、知識(shí)結(jié)構(gòu)、社會(huì)關(guān)系、文化背景、情緒狀態(tài)等極為特殊化的狀況。未來的通用人工智能,要理解人類的語言、非語言信號(hào)、肢體語言、情緒表達(dá)、文化禁忌、社會(huì)關(guān)系網(wǎng)絡(luò)和角色定位,仍然是極為挑戰(zhàn)的工作。所以我認(rèn)為提示工程的生命力遠(yuǎn)不會(huì)我們想象的那么短命,而是長時(shí)間人類和機(jī)器之間溝通磨合的長效工作。這就意味著Prompt技術(shù)的發(fā)展是一個(gè)不斷演化的具有長生命力的技術(shù),絕對不是曇花一現(xiàn)。
-
開源技術(shù)
+關(guān)注
關(guān)注
0文章
389瀏覽量
7978 -
OpenHarmony
+關(guān)注
關(guān)注
25文章
3744瀏覽量
16476
原文標(biāo)題:河套IT TALK96:(原創(chuàng))GPT技術(shù)揭秘:解鎖提示工程的潛能
文章出處:【微信號(hào):開源技術(shù)服務(wù)中心,微信公眾號(hào):共熵服務(wù)中心】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論