0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

【FlashAttention-V4,非官方】FlashDecoding++

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-11-14 15:41 ? 次閱讀

1. Introdcution

為了提高softmax并行性,之前方法(FlashAttention、FlashDecoding)將計(jì)算過程拆分,各自計(jì)算partial softmax結(jié)果,最后需要通過同步操作來更新partial softmax結(jié)果。例如FlashAttention每次計(jì)算partial softmax結(jié)果都會更新之前的結(jié)果,而FlashDecoding是在最后統(tǒng)一更新所有partial softmax結(jié)果。

本文在A100 GPU上分析了輸入長度為1024的情況,這種同步partial softmax更新操作占Llama2-7B推理的注意力計(jì)算的18.8%。(本文沒說是FlashAttention還是FlashDecoding的結(jié)果,個(gè)人認(rèn)為FlashDecoding的同步更新代價(jià)并不大,應(yīng)該遠(yuǎn)小于18.8%)

這是LLM推理加速的第一個(gè)挑戰(zhàn)。此外,本文還提出了兩個(gè)挑戰(zhàn):

在解碼階段,F(xiàn)lat GEMM操作的計(jì)算資源未得到充分利用。這是由于解碼階段是按順序生成token(一次只生成一個(gè)token),GEMM操作趨于flat-shape,甚至batch size等1時(shí)變成了GEMV(General Matrix-Vector Multiplication),具體看論文Figure 2。當(dāng)batch size較小時(shí)(e.g., 8),cublas和cutlass會將矩陣填充zeros以執(zhí)行更大batchsize(e.g., 64)的GEMM,導(dǎo)致計(jì)算利用率不足50%。

動態(tài)輸入和固定硬件配置影響了LLM推理的性能。例如,當(dāng)batch size較小時(shí),LLM推理的解碼過程是memory-bounded,而當(dāng)batch size較大時(shí)是compute-bounded。

針對這3個(gè)問題,本文分別提出了對應(yīng)優(yōu)化方法:

Asynchronized softmax with unified max value.FlashDecoding++為分塊softmax計(jì)算設(shè)置了一個(gè)共享的最大值。這樣可以獨(dú)立計(jì)算partial softmax,無需同步更新。

Flat GEMM optimization with double buffering.FlashDecoding++只將矩陣大小填充到8,對比之前針對flat-shaped GEMM設(shè)計(jì)的為64,提高了計(jì)算利用率。論文指出,具有不同shape的flat GEMMs面臨的瓶頸也不同,于是進(jìn)一步利用雙緩沖等技術(shù)提高kernel性能。

Heuristic dataflow with hardware resource adaption.FlashDecoding++同時(shí)考慮了動態(tài)輸入和硬件配置,針對LLM推理時(shí)數(shù)據(jù)流進(jìn)行動態(tài)kernel優(yōu)化。

下圖展示了以上3種方法的示意圖:

e8d33a2a-828a-11ee-939d-92fbcf53809c.png

2. Backgrounds

LLM推理中的主要操作如下圖所示:linear projection(①和⑤)、attention(②、③和④)和feedforward network(⑥)。為簡單起見,這里忽略了position embedding、non-linear activation、mask等操作。本文將LLM推理時(shí)對Prompt的處理過程稱為prefillphase,第二階段預(yù)測過程稱為decodephase。這兩個(gè)階段的算子基本一致,主要是輸入數(shù)據(jù)的shape是不同的。由于decodephase一次只處理一個(gè)令牌(batch size=1,或batch size很?。虼溯斎刖仃囀莊lat-shape matrices(甚至是vectors),參見下圖Decode phase部分中和KV Cache拼接的紅色向量。

e8efc816-828a-11ee-939d-92fbcf53809c.png

LLM推理中的另一個(gè)問題就是Softmax算子,其需要計(jì)算并存儲所有全局?jǐn)?shù)據(jù),并且數(shù)據(jù)量隨著數(shù)據(jù)長度成平方增長,存在內(nèi)存消耗高和低并行性等問題。一般計(jì)算流程如下:

e919c08a-828a-11ee-939d-92fbcf53809c.png

3. Asynchronized Softmax with Unified Maximum Value如下

圖b所示,F(xiàn)lashAttention和FlashDecoding對softmax操作進(jìn)行了分塊處理,但是塊與塊之間需要進(jìn)行同步(主要是局部最大值)。本文發(fā)現(xiàn)這種同步操作的開銷約為20%。因此,作者希望去除同步操作,也就是獨(dú)立計(jì)算出partial softmax結(jié)果。

e92b4954-828a-11ee-939d-92fbcf53809c.png

e94fa128-828a-11ee-939d-92fbcf53809c.png

e9642c9c-828a-11ee-939d-92fbcf53809c.png

e97a9f7c-828a-11ee-939d-92fbcf53809c.png

e9a2dfa0-828a-11ee-939d-92fbcf53809c.png

4. Flat GEMM Optimization with Double Buffering

Decoding階段的過程主要由GEMV(batch size=1)或flat GEMM(batch size>1)。GEMV/GEMM運(yùn)算可以用M、N、K來表示,其中兩個(gè)相乘矩陣的大小分別為M × K和K × N。一般LLM推理引擎利用Tensor Core使用cuBLAS和CUTLASS等庫來加速。盡管Tensor Core適合處理M = 8的GEMM,但這些庫為了隱藏memory latency,通常將M維度平鋪到64。然而,decodephase的GEMV或flat GEMM的M通遠(yuǎn)小于64,于是填充0到64,導(dǎo)致計(jì)算利用率低下。

e9ca7236-828a-11ee-939d-92fbcf53809c.png

e9e9159c-828a-11ee-939d-92fbcf53809c.png

ea01d4e2-828a-11ee-939d-92fbcf53809c.png

ea189fce-828a-11ee-939d-92fbcf53809c.png

ea4097e0-828a-11ee-939d-92fbcf53809c.png

ea52f958-828a-11ee-939d-92fbcf53809c.png

為了隱藏memory access latency,本文引入了double buffering技術(shù)。具體來說就是在共享內(nèi)存中分配兩個(gè)buffer,一個(gè)buffer用于執(zhí)行當(dāng)前tile的GEMM計(jì)算,同時(shí)另一個(gè)buffer則加載下一個(gè)tile GEMM所需的數(shù)據(jù)。這樣計(jì)算和內(nèi)存訪問是重疊的,本文在N較大時(shí)采取這種策略,下圖為示意圖。

ea730982-828a-11ee-939d-92fbcf53809c.png

5. Heuristic Dataflow with Hardware Resource Adaption

影響LLM推理性能的因素有很多:(a)動態(tài)輸入。batch size和輸入序列長度的變化造成了工作負(fù)載變化。(b)模型多樣性。主要指模型結(jié)構(gòu)和模型大小。(c)GPU能力不同。例如內(nèi)存帶寬、緩存大小和計(jì)算能力。(d)工程優(yōu)化。

雖然這些因素構(gòu)建了一個(gè)很大的搜索空間,但LLM中不同layer的同質(zhì)性大大減少了算子優(yōu)化的搜索空間。例如,prefillphase和decodephase中有4個(gè)GEMV/GEMM操作(K、Q、V投影、O投影、2個(gè)FFN),都可以表示為[M, K]和N x K,對應(yīng)了四種[N, K]組合,如下圖所示。此外,prefillphase的M與輸入序列長度和batch size有關(guān),decodephase的M只與batch size有關(guān)。

eaa4a406-828a-11ee-939d-92fbcf53809c.png

本文根據(jù)不同的M, K, N選取FastGEMV、flat GEMM(本文方法)、CUTLASS。

eab90a0e-828a-11ee-939d-92fbcf53809c.png

個(gè)人總結(jié)

這篇文章沒有FlashAttention和FlashDecoding驚艷,個(gè)人覺得FlashDecoding的同步處理代價(jià)不大,而且本文中動態(tài)調(diào)整softmax方法也引入了判斷、終止和分支跳轉(zhuǎn)等操作。另一個(gè)Double Buffering就是內(nèi)存優(yōu)化常用的乒乓buffer,也沒什么新東西。

不過話說回來,如今在tranformer架構(gòu)不變的情況,LLM加速只能靠這些工程手段去優(yōu)化,的確也有不錯(cuò)效果。還是很有價(jià)值的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7134

    瀏覽量

    89467
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4768

    瀏覽量

    129277
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    298

    瀏覽量

    381

原文標(biāo)題:【FlashAttention-V4,非官方】FlashDecoding++

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    谷歌終止官方支持?RISC-V坎坷的安卓適配之路

    、筆記本、SBC也陸續(xù)推出。然而在安卓這一用戶量最大的移動端OS上,這么多年以來,RISC-V的適配進(jìn)展都相對有限。 ? 對于任何一個(gè)OS而言,完成新架構(gòu)硬件的移植都不是一件易事。安卓作為一個(gè)開源操作系統(tǒng),移植自由度極高,但如果有谷歌官方的開發(fā)支持自然更容易實(shí)現(xiàn)。
    的頭像 發(fā)表于 05-12 08:04 ?3350次閱讀
    谷歌終止<b class='flag-5'>官方</b>支持?RISC-<b class='flag-5'>V</b>坎坷的安卓適配之路

    如何在邊緣端獲得GPT4-V的能力:算力魔方+MiniCPM-V 2.6

    GPT4-V的能力:MiniCPM-V 2.6 。 MiniCPM-V 2.6是MiniCPM-V系列最新、性能最佳的模型,基于SigLip-400M和Qwen2-7B構(gòu)建,共8B參數(shù)
    的頭像 發(fā)表于 01-20 13:40 ?114次閱讀
    如何在邊緣端獲得GPT<b class='flag-5'>4-V</b>的能力:算力魔方+MiniCPM-<b class='flag-5'>V</b> 2.6

    TDC芯片數(shù)據(jù)手冊及官方參考例程

    路?,F(xiàn)通過百度云盤分享出來。 通過網(wǎng)盤分享的文件:TDC資料合集V2.0.zip 鏈接: https://pan.baidu.com/s/1yAif8k6iBVuoFCE4W8-NSQ?pwd=hcve 提取碼: hcve --來自百度網(wǎng)盤超級會員
    發(fā)表于 11-06 23:06

    MHMF082A1V4-操作手冊 - PANATERM Ver6.0 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF082A1V4-操作手冊 - PANATERM Ver6.0相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有MHMF082A1V4-操作手冊
    發(fā)表于 10-30 19:24
    MHMF082A1<b class='flag-5'>V4</b>-操作手冊 - PANATERM Ver6.0 松下

    MHMF042A1V4-操作手冊 - PANATERM Ver6.0 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF042A1V4-操作手冊 - PANATERM Ver6.0相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有MHMF042A1V4-操作手冊
    發(fā)表于 09-30 19:08
    MHMF042A1<b class='flag-5'>V4</b>-操作手冊 - PANATERM Ver6.0 松下

    TAS5504-5142V4EVM應(yīng)用報(bào)告

    電子發(fā)燒友網(wǎng)站提供《TAS5504-5142V4EVM應(yīng)用報(bào)告.pdf》資料免費(fèi)下載
    發(fā)表于 09-30 11:45 ?0次下載
    TAS5504-5142<b class='flag-5'>V4</b>EVM應(yīng)用報(bào)告

    MHMF012A1V4-操作手冊 - PANATERM Ver6.0 松下

    電子發(fā)燒友網(wǎng)為你提供Panasonic(Panasonic)MHMF012A1V4-操作手冊 - PANATERM Ver6.0相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊,更有MHMF012A1V4-操作手冊
    發(fā)表于 07-01 19:20
    MHMF012A1<b class='flag-5'>V4</b>-操作手冊 - PANATERM Ver6.0 松下

    DS-AN3V PB30 CN-V4-開環(huán)霍爾電流傳感器

    電子發(fā)燒友網(wǎng)站提供《DS-AN3V PB30 CN-V4-開環(huán)霍爾電流傳感器.pdf》資料免費(fèi)下載
    發(fā)表于 06-04 08:27 ?0次下載

    TYPC USB作為DEVICE使用的話,VBUS需要接5V電壓嗎?

    路都做了上拉。這個(gè)上拉主要是什么作用的? 4、另外這個(gè)上拉是到3.3V還是5V? 以下是官方文檔的截圖 以下是別的地方下載下來的應(yīng)用電路圖
    發(fā)表于 06-03 08:46

    X-CUBE-CRYPTOLIB V4庫文件無法添加,鏈接錯(cuò)誤的原因?

    官方介紹,V4版本的靜態(tài)庫是支持多個(gè)編譯器的,芯片是stm32h743,我用的是arm-none-eabi-gcc,版本是gcc version 13.2.1 20231009 (Arm GNU
    發(fā)表于 05-31 07:54

    將stm32_eth_lib的以太網(wǎng)程序移植到非官方版開發(fā)板一直不成功怎么解決?

    我最近將官方原版的uip協(xié)議族下面的以太網(wǎng)協(xié)議移植到官方的開發(fā)板(如格蘭瑞SupeARm STM32F107VX,或者神舟107系列),一直沒有成功,請問有哪位大神研究過,或者有相關(guān)的經(jīng)驗(yàn),幫助小弟呀,小弟跪謝了
    發(fā)表于 05-17 12:32

    3.5V 至 36V 輸入、1V 至 20V 輸出、4A 電源模塊LMZM33604數(shù)據(jù)表

    電子發(fā)燒友網(wǎng)站提供《3.5V 至 36V 輸入、1V 至 20V 輸出、4A 電源模塊LMZM33604數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 04-28 09:45 ?0次下載
    3.5<b class='flag-5'>V</b> 至 36<b class='flag-5'>V</b> 輸入、1<b class='flag-5'>V</b> 至 20<b class='flag-5'>V</b> 輸出、<b class='flag-5'>4</b>A 電源模塊LMZM33604數(shù)據(jù)表

    為什么無法安裝CUBE-MX-NFC6擴(kuò)展包?

    在官網(wǎng)下載CUBE-MX-NFC6擴(kuò)展包以使用NUCLEO-NFC08A1擴(kuò)展板,但是CUBE MX提示非官方擴(kuò)展包
    發(fā)表于 03-18 06:10

    斯坦福繼Flash Attention V1和V2又推出Flash Decoding

    斯坦福大學(xué)此前提出的FlashAttention算法,能夠在BERT-large訓(xùn)練中節(jié)省15%,將GPT訓(xùn)練速度提高2/3。
    的頭像 發(fā)表于 03-13 15:23 ?827次閱讀

    開發(fā)者發(fā)布自制非官方YouTube應(yīng)用,Vision Pro頭顯可用

    據(jù)了解,該第三方應(yīng)用可完整實(shí)現(xiàn)原生的 YouTube 功能,包括手勢操控和保持原始視頻寬高比等功能,同時(shí)支持瀏覽播放列表,甚至在觀看過程中出現(xiàn)的 YouTube 廣告。據(jù)開發(fā)者表示,此舉旨在免受谷歌聲討。
    的頭像 發(fā)表于 02-03 10:53 ?657次閱讀