0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從大模型中蒸餾腳本知識(shí)用于約束語(yǔ)言規(guī)劃

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:知識(shí)工場(chǎng) ? 2023-06-08 09:46 ? 次閱讀

為了實(shí)現(xiàn)日常目標(biāo),人們通常會(huì)根據(jù)逐步指令來(lái)計(jì)劃自己的行動(dòng)。這些指令被發(fā)現(xiàn)是目標(biāo)導(dǎo)向的腳本,包括一組達(dá)成目標(biāo)的原型事件序列。為了實(shí)現(xiàn)目標(biāo)(例如制作蛋糕),通常需要按照某些指令步驟進(jìn)行,例如收集材料,預(yù)熱烤箱等。這種逐步腳本的規(guī)劃會(huì)朝著復(fù)雜目標(biāo)的推理鏈條進(jìn)行。因此,規(guī)劃自動(dòng)化意味著在各個(gè)領(lǐng)域中實(shí)現(xiàn)更智能和合理的人工智能系統(tǒng),例如可執(zhí)行的機(jī)器人系統(tǒng)和用于問(wèn)題解決的推理系統(tǒng)。

最近的研究表明,語(yǔ)言模型(LMs)可以用于計(jì)劃腳本。先前的工作已經(jīng)表明,大型語(yǔ)言模型(LLMs),例如GPT-3、InstructGPT和PaLM,可以以零/少量示例的方式有效地將目標(biāo)分解為過(guò)程步驟。為了訓(xùn)練專業(yè)模型,研究人員提出了自動(dòng)理解和生成腳本知識(shí)的數(shù)據(jù)集。但是,先前的工作主要關(guān)注于針對(duì)典型活動(dòng)的抽象目標(biāo)進(jìn)行規(guī)劃。針對(duì)具有特定約束條件(例如糖尿病患者)目標(biāo)的規(guī)劃仍然未得到充分研究。

本文介紹了復(fù)旦大學(xué)知識(shí)工場(chǎng)實(shí)驗(yàn)室的最新研究論文《Distilling Script Knowledge from Large Language Models for Constrained Language Planning》,該文已經(jīng)被自然語(yǔ)言處理頂會(huì)ACL 2023作為主會(huì)長(zhǎng)文錄用。本文工作關(guān)注約束語(yǔ)言規(guī)劃的問(wèn)題,將語(yǔ)言規(guī)劃推向了更具體的目標(biāo)。論文作者評(píng)估了LLMs的少量示例約束語(yǔ)言規(guī)劃能力,并為L(zhǎng)LMs開(kāi)發(fā)了一種超生成然后過(guò)濾的方法,使準(zhǔn)確性提高了26%?;诒疚牡姆椒?,作者還使用LLMs生成了一個(gè)約束語(yǔ)言規(guī)劃的高質(zhì)量腳本數(shù)據(jù)集(CoScript)。利用CoScript,可為專業(yè)化和小型模型提供具有約束語(yǔ)言規(guī)劃能力的能力,其性能可媲美LLMs。

16a8de72-0483-11ee-90ce-dac502259ad0.png

一、研究背景

為了實(shí)現(xiàn)日常目標(biāo),人們通常會(huì)根據(jù)逐步指令來(lái)計(jì)劃自己的行動(dòng)。這些指令被發(fā)現(xiàn)是目標(biāo)導(dǎo)向的腳本,包括一組達(dá)成目標(biāo)的原型事件序列。為了實(shí)現(xiàn)目標(biāo)(例如制作蛋糕),通常需要按照某些指令步驟進(jìn)行,例如收集材料,預(yù)熱烤箱等。這種逐步腳本的規(guī)劃會(huì)朝著復(fù)雜目標(biāo)的推理鏈條進(jìn)行。因此,規(guī)劃自動(dòng)化意味著在各個(gè)領(lǐng)域中實(shí)現(xiàn)更智能和合理的人工智能系統(tǒng),例如可執(zhí)行的機(jī)器人系統(tǒng)和用于問(wèn)題解決的推理系統(tǒng)。

16f4ba22-0483-11ee-90ce-dac502259ad0.png

圖1:InstructGPT生成了一系列“為糖尿病患者做蛋糕”的目標(biāo)規(guī)劃步驟

最近的研究表明,語(yǔ)言模型(LMs)可以用于計(jì)劃腳本。先前的工作已經(jīng)表明,大型語(yǔ)言模型(LLMs),例如GPT-3、InstructGPT和PaLM,可以以零/少量示例的方式有效地將目標(biāo)分解為過(guò)程步驟。為了訓(xùn)練專業(yè)模型,研究人員提出了自動(dòng)理解和生成腳本知識(shí)的數(shù)據(jù)集。但是,先前的工作主要關(guān)注于針對(duì)典型活動(dòng)的抽象目標(biāo)進(jìn)行規(guī)劃。針對(duì)具有特定約束條件(例如糖尿病患者)的目標(biāo)的規(guī)劃仍然未得到充分研究。

二、基于大規(guī)模語(yǔ)言模型的限制約束語(yǔ)言規(guī)劃

在本文中,作者定義了約束語(yǔ)言規(guī)劃問(wèn)題,該問(wèn)題對(duì)規(guī)劃目標(biāo)施加不同的約束。例如,抽象目標(biāo)(制作蛋糕)可以由具有多方面約束的不同現(xiàn)實(shí)特定目標(biāo)所繼承。蛋糕可以用1)不同的配料(例如巧克力或香草);2)各種工具(例如使用微波爐或烤箱);或3)不同的用途(例如用于婚禮或生日派對(duì))來(lái)制作。

1730b770-0483-11ee-90ce-dac502259ad0.png

表1:促進(jìn)特定目標(biāo)新實(shí)例生成的三種約束類型及其定義

一個(gè)好的規(guī)劃者應(yīng)編寫(xiě)合理并忠實(shí)于約束的腳本。為此,作者探究了LLMs是否會(huì)忠實(shí)于約束地進(jìn)行規(guī)劃。由于沒(méi)有特定目標(biāo)的數(shù)據(jù)集支持本文的研究,必須首先獲取這些目標(biāo)。如表1所述,作者使用InstructGPT對(duì)抽象目標(biāo)進(jìn)行了多方面約束的人在環(huán)數(shù)據(jù)采集進(jìn)行擴(kuò)展。首先,作者手動(dòng)準(zhǔn)備了一個(gè)示例池,從中使用約束從抽象目標(biāo)中推導(dǎo)出具體目標(biāo)。每個(gè)示例都附帶有一個(gè)約束類型(即修飾符、方法或意圖),并包含多個(gè)約束和特定目標(biāo),以便InstructGPT為一個(gè)抽象目標(biāo)生成多個(gè)具體目標(biāo)。

接下來(lái),作者枚舉wikiHow的每個(gè)抽象目標(biāo),以確保數(shù)據(jù)多樣性。然后,從池中隨機(jī)抽取約束類型的多個(gè)示例。最后,將任務(wù)提示、示例和抽象目標(biāo)輸入InstructGPT中,以完成具體目標(biāo)。表2(I)中的一個(gè)示例顯示了InstructGPT針對(duì)抽象目標(biāo)(“制作蛋糕”)和約束類型修飾符以及一些示例生成了約束“巧克力”和“香草”,并完成了特定目標(biāo)(“制作巧克力蛋糕”和“制作香草蛋糕”)。獲取帶有約束的具體目標(biāo)后,可以測(cè)試LLM實(shí)現(xiàn)這些目標(biāo)的能力。

177c1ada-0483-11ee-90ce-dac502259ad0.png

表2: InstructGPT的提示示例,用于通過(guò)上下文學(xué)習(xí)生成特定目標(biāo)和腳本。生成的文本已經(jīng)被突出顯示

表3報(bào)告了結(jié)果的整體準(zhǔn)確度,從中可以發(fā)現(xiàn):1)總體而言,所有基準(zhǔn)模型在特定目標(biāo)的規(guī)劃上都取得了不令人滿意的結(jié)果,其中InstructGPT表現(xiàn)最佳?!白屛覀円徊揭徊剿伎肌辈⒉荒軒椭?;2)從wikiHow檢索不會(huì)導(dǎo)致所需的腳本。

17d6fd9c-0483-11ee-90ce-dac502259ad0.png

表3:不同約束類型的生成腳本準(zhǔn)確率(%),通過(guò)人工評(píng)估得出。

為了回應(yīng)本文方法的動(dòng)機(jī),作者進(jìn)行了詳細(xì)的分析,以研究為何LLM會(huì)失敗。圖3的結(jié)果表明:1)生成的腳本的語(yǔ)義完整性是可以接受的,但約束的忠實(shí)度無(wú)法保證;2)本文的方法在語(yǔ)義完整性和約束忠實(shí)度方面都極大地提高了規(guī)劃質(zhì)量。

184a7006-0483-11ee-90ce-dac502259ad0.png

圖2:通過(guò)人工評(píng)估生成的腳本的錯(cuò)誤

因此,作者采用了過(guò)度生成然后過(guò)濾的思路來(lái)提高生成質(zhì)量。正如圖3所示,作者從InstructGPT中過(guò)度生成K個(gè)樣本,然后開(kāi)發(fā)一個(gè)過(guò)濾模型來(lái)選擇忠實(shí)的腳本。由于語(yǔ)言表達(dá)方式多樣,作者依賴于目標(biāo)和腳本之間的語(yǔ)義相似性進(jìn)行過(guò)濾,而不是規(guī)則和模式(即,必須在腳本中出現(xiàn)約束詞)。

作者首先收集了一組目標(biāo),包括所求目標(biāo)作為正樣本以及從相同的抽象目標(biāo)生成的其他目標(biāo)作為負(fù)樣本。然后,將腳本和目標(biāo)轉(zhuǎn)換為InstructGPT嵌入,并計(jì)算余弦相似性作為相似性分?jǐn)?shù)來(lái)衡量語(yǔ)義相似性。此外,作者獎(jiǎng)勵(lì)明確包含目標(biāo)約束關(guān)鍵字的腳本,只有所求目標(biāo)在目標(biāo)集合得分最高時(shí)才會(huì)保留該腳本。

18a837e0-0483-11ee-90ce-dac502259ad0.png

圖3:使用InstructGPT生成具體目標(biāo)并使用超生成-過(guò)濾框架進(jìn)行目標(biāo)規(guī)劃的工作流程。

結(jié)果如表3所示。使用本文的方法,InstructGPT可以大幅提高腳本的質(zhì)量。將相似度函數(shù)替換為來(lái)自其他預(yù)訓(xùn)練模型的嵌入會(huì)導(dǎo)致性能下降。

三、從大模型中獲取腳本知識(shí)

LLMs成本高,需為更小、專業(yè)化模型添加語(yǔ)言規(guī)劃能力。為實(shí)現(xiàn)此目標(biāo),創(chuàng)建數(shù)據(jù)集是必要步驟,但以前的數(shù)據(jù)集不支持特定目標(biāo)的規(guī)劃,手動(dòng)注釋成本高。為此,作者使用符號(hào)知識(shí)蒸餾從LLMs中提取受限制的語(yǔ)言規(guī)劃數(shù)據(jù)集。作者使用超生成-過(guò)濾框架為受限制的語(yǔ)言規(guī)劃腳本數(shù)據(jù)集CoScript構(gòu)建了高質(zhì)量的具體目標(biāo)和腳本,總共生成了55,000個(gè)具體目標(biāo)和相應(yīng)的腳本。

作者還隨機(jī)選擇2,000個(gè)數(shù)據(jù)作為驗(yàn)證集,3,000個(gè)數(shù)據(jù)作為測(cè)試集。為確保驗(yàn)證集和測(cè)試集的質(zhì)量,作者要求眾包工作者查找和修正不正確的樣本。通過(guò)收集這5,000個(gè)樣本的注釋數(shù)據(jù)進(jìn)行錯(cuò)誤識(shí)別,估計(jì)出具體目標(biāo)的準(zhǔn)確率為97.80%,受限腳本生成的準(zhǔn)確率為94.98%,與表3中的結(jié)果一致。

18ef038c-0483-11ee-90ce-dac502259ad0.png

表4:Coscript和之前數(shù)據(jù)集的對(duì)比

并與其他數(shù)據(jù)集進(jìn)行了比較,如表4所示,發(fā)現(xiàn)CoScript比proScript規(guī)模更大,具有更多的腳本和更高的每個(gè)腳本步驟數(shù),并且CoScript具有高度的詞匯多樣性。

191990c0-0483-11ee-90ce-dac502259ad0.png

圖4:CoScript的約束分布

圖4顯示了CoScript的約束分布,發(fā)現(xiàn)CoScript在生成的具體目標(biāo)中顯示出高度的異質(zhì)性和多元化。有趣的是,InstructGPT傾向于以“if”或“when”這樣的詞語(yǔ)開(kāi)始假設(shè)性約束(例如,“如果有人對(duì)乳糖不耐受,則制作蛋糕”),這表明未來(lái)在語(yǔ)言規(guī)劃中進(jìn)行反事實(shí)推理的研究潛力。

四、小模型的約束規(guī)劃能力

有了CoScript,可以為受限制的語(yǔ)言規(guī)劃訓(xùn)練更小但更專業(yè)化的模型。表5顯示了在wikiHow和CoScript上訓(xùn)練的模型的比較。一般而言,CoScript訓(xùn)練的LMs表現(xiàn)優(yōu)于wikiHow。T5在忠實(shí)度上優(yōu)于GPT-2,可能是由于其編碼器-解碼器框架更擅長(zhǎng)處理輸入信息。然而,在其他文本生成指標(biāo)上,GPT-2優(yōu)于T5。這可能是因?yàn)镃oScript是從InstructGPT蒸餾而來(lái),導(dǎo)致數(shù)據(jù)分布存在偏差,偏向于僅解碼的因果語(yǔ)言模型,例如GPT系列。而且我們發(fā)現(xiàn)使用檢索示例來(lái)增強(qiáng)模型可以提高語(yǔ)義完整性。

1957b1e8-0483-11ee-90ce-dac502259ad0.png

表5:不同訓(xùn)練集上模型的總體腳本生成性能。請(qǐng)注意,所有模型的測(cè)試集相同。

作者進(jìn)一步在CoScript和wikiHow上微調(diào)T5(3B),以生成§4.4中保留在訓(xùn)練集之外的具體目標(biāo)的腳本。表7顯示,使用檢索增強(qiáng)微調(diào)的T5可以生成比表3中大多數(shù)LLMs質(zhì)量更高的腳本,這表明當(dāng)適當(dāng)?shù)卦谶m當(dāng)?shù)臄?shù)據(jù)集上進(jìn)行訓(xùn)練時(shí),較小的模型也可以超越較大的模型。

19a6c2c4-0483-11ee-90ce-dac502259ad0.png

表6:不同模型生成的腳本準(zhǔn)確率(%)。我們?cè)趙ikiHow和CoScript上微調(diào)了T5(3B),同時(shí)通過(guò)少樣本上下文學(xué)習(xí)來(lái)部署LLMs。

五、總 結(jié)

本文旨在定義在特定約束條件下朝著特定目標(biāo)進(jìn)行規(guī)劃。本文作者提出了一種更好的提示方法,用以改進(jìn)LLMs的受約束語(yǔ)言規(guī)劃能力,并從LLMs中提煉出了一個(gè)新的數(shù)據(jù)集(CoScript)。實(shí)驗(yàn)表明,本文的方法提高了LLMs針對(duì)特定目標(biāo)的規(guī)劃質(zhì)量,而在CoScript上訓(xùn)練的較小模型甚至優(yōu)于LLMs。希望CoScript數(shù)據(jù)集能成為推進(jìn)更加復(fù)雜和多樣化目標(biāo)和約束條件下的語(yǔ)言規(guī)劃研究的寶貴資源。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    211

    文章

    28467

    瀏覽量

    207332
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47352

    瀏覽量

    238777
  • 過(guò)濾器
    +關(guān)注

    關(guān)注

    1

    文章

    430

    瀏覽量

    19630
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    354

    瀏覽量

    15414

原文標(biāo)題:從大模型中蒸餾腳本知識(shí)用于約束語(yǔ)言規(guī)劃

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

    隨著預(yù)訓(xùn)練語(yǔ)言模型(PLMs)的不斷發(fā)展,各種NLP任務(wù)設(shè)置上都取得了不俗的性能。盡管PLMs可以大量語(yǔ)料庫(kù)中學(xué)習(xí)一定的知識(shí),但仍舊存在很多問(wèn)題,如
    的頭像 發(fā)表于 04-02 17:21 ?9651次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    就無(wú)法修改,因此難以靈活應(yīng)用于下游文本的挖掘。 詞嵌入表示:將每個(gè)詞映射為一個(gè)低維稠密的實(shí)值向量。不同的是,基于預(yù)訓(xùn)練的詞嵌入表示先在語(yǔ)料庫(kù)利用某種語(yǔ)言
    發(fā)表于 05-05 12:17

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的應(yīng)用

    實(shí)際應(yīng)用前需解決的挑戰(zhàn)。為提升大語(yǔ)言模型的性能,高級(jí)的提示詞技術(shù)可以促進(jìn)大語(yǔ)言模型與環(huán)境進(jìn)行動(dòng)態(tài)交互,引導(dǎo)其生成和推理規(guī)劃。 檢索增強(qiáng)生成
    發(fā)表于 05-07 17:21

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的表達(dá)方式和生成能力。通過(guò)預(yù)測(cè)文本缺失的部分或下一個(gè)詞,模型逐漸掌握語(yǔ)言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語(yǔ)言
    發(fā)表于 08-02 11:03

    用于調(diào)試的MCU Xpresso IDE調(diào)試腳本語(yǔ)言嗎?

    我們有用于調(diào)試的 MCUXpresso IDE 調(diào)試腳本語(yǔ)言嗎?我檢查了 LinkServer 腳本,這不足以滿足我們的需求。我正在尋找類似德州儀器 Code composer studio 中使
    發(fā)表于 04-20 09:11

    深度學(xué)習(xí):知識(shí)蒸餾的全過(guò)程

    。? 0. 寫(xiě)在前面 有人說(shuō)過(guò):“神經(jīng)網(wǎng)絡(luò)用剩的logits不要扔,沾上雞蛋液,裹上面包糠...” 這兩天對(duì)知識(shí)蒸餾(Knowledge Distillation)萌生了一點(diǎn)興趣,正好寫(xiě)一篇文章分享一下。這篇文章姑且算是一篇小科普。 1.
    的頭像 發(fā)表于 01-07 14:36 ?6157次閱讀

    如何向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型融入知識(shí)?

    本文關(guān)注于向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型(如RoBERTa、BERT等)融入知識(shí)。
    的頭像 發(fā)表于 06-23 15:07 ?4256次閱讀
    如何向大規(guī)模預(yù)訓(xùn)練<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b><b class='flag-5'>中</b>融入<b class='flag-5'>知識(shí)</b>?

    若干蒸餾方法之間的細(xì)節(jié)以及差異

    以往的知識(shí)蒸餾雖然可以有效的壓縮模型尺寸,但很難將teacher模型的能力蒸餾到一個(gè)更小詞表的student
    的頭像 發(fā)表于 05-12 11:39 ?1445次閱讀

    關(guān)于快速知識(shí)蒸餾的視覺(jué)框架

    知識(shí)蒸餾框架包含了一個(gè)預(yù)訓(xùn)練好的 teacher 模型蒸餾過(guò)程權(quán)重固定),和一個(gè)待學(xué)習(xí)的 student 模型, teacher 用來(lái)產(chǎn)生
    的頭像 發(fā)表于 08-31 10:13 ?910次閱讀

    用于NAT的選擇性知識(shí)蒸餾框架

    盡管NAT在擁有許多潛在的優(yōu)勢(shì),目前的工作這類模型仍然在很大程度上依賴于句子級(jí)別的知識(shí)蒸餾(sequence-level knowledge distillation, KD)[2]
    的頭像 發(fā)表于 12-06 14:44 ?737次閱讀

    如何度量知識(shí)蒸餾不同數(shù)據(jù)增強(qiáng)方法的好壞?

    知識(shí)蒸餾(knowledge distillation,KD)是一種通用神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,它使用大的teacher模型來(lái) “教” student模型,在各種AI任務(wù)上有著廣泛應(yīng)用。
    的頭像 發(fā)表于 02-25 15:41 ?928次閱讀

    如何將ChatGPT的能力蒸餾到另一個(gè)大模型

    Language Model》 提出了一個(gè)將知識(shí)從一個(gè)復(fù)雜的、閉源的大型語(yǔ)言模型(LLM)轉(zhuǎn)移到一個(gè)緊湊的、開(kāi)源的LLM的做法,其中加入了數(shù)據(jù)反饋的
    的頭像 發(fā)表于 06-12 15:06 ?940次閱讀
    如何將ChatGPT的能力<b class='flag-5'>蒸餾</b>到另一個(gè)大<b class='flag-5'>模型</b>

    TPAMI 2023 | 用于視覺(jué)識(shí)別的相互對(duì)比學(xué)習(xí)在線知識(shí)蒸餾

    本次文章介紹我們于 TPAMI-2023 發(fā)表的一項(xiàng)用于視覺(jué)識(shí)別的相互對(duì)比學(xué)習(xí)在線知識(shí)蒸餾(Online Knowledge Distillation via Mutual Contrastive
    的頭像 發(fā)表于 09-19 10:00 ?825次閱讀
    TPAMI 2023 | <b class='flag-5'>用于</b>視覺(jué)識(shí)別的相互對(duì)比學(xué)習(xí)在線<b class='flag-5'>知識(shí)</b><b class='flag-5'>蒸餾</b>

    任意模型都能蒸餾!華為諾亞提出異構(gòu)模型知識(shí)蒸餾方法

    相比于僅使用logits的蒸餾方法,同步使用模型中間層特征進(jìn)行蒸餾的方法通常能取得更好的性能。然而在異構(gòu)模型的情況下,由于不同架構(gòu)模型對(duì)特征
    的頭像 發(fā)表于 11-01 16:18 ?1049次閱讀
    任意<b class='flag-5'>模型</b>都能<b class='flag-5'>蒸餾</b>!華為諾亞提出異構(gòu)<b class='flag-5'>模型</b>的<b class='flag-5'>知識(shí)</b><b class='flag-5'>蒸餾</b>方法

    腳本語(yǔ)言和編程語(yǔ)言的區(qū)別

    腳本語(yǔ)言和編程語(yǔ)言是計(jì)算機(jī)語(yǔ)言的兩個(gè)主要分類。盡管兩者都是用于編寫(xiě)計(jì)算機(jī)程序的工具,但它們?cè)谠O(shè)計(jì)和運(yùn)行方式上存在一些顯著的區(qū)別。下面將詳細(xì)探討腳本語(yǔ)
    的頭像 發(fā)表于 11-22 14:33 ?2992次閱讀