0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Spark基于DPU Snappy壓縮算法的異構(gòu)加速方案

中科馭數(shù) ? 來源:中科馭數(shù) ? 作者:中科馭數(shù) ? 2024-03-26 17:06 ? 次閱讀

一、總體介紹

1.1 背景介紹

Apache Spark是專為大規(guī)模數(shù)據(jù)計算而設(shè)計的快速通用的計算引擎,是一種與 Hadoop 相似的開源集群計算環(huán)境,但是兩者之間還存在一些不同之處,這些不同之處使 Spark 在某些工作負載方面表現(xiàn)得更加優(yōu)越。換句話說,Spark 啟用了內(nèi)存分布數(shù)據(jù)集,除了能夠提供交互式查詢外,它還可以優(yōu)化迭代工作負載。Spark SQL是Spark的計算模塊之一,專門用于處理結(jié)構(gòu)化的數(shù)據(jù)。Spark SQL允許用戶使用標準的SQL語句來執(zhí)行SQL的查詢和讀寫,也可以使用Hive SQL來執(zhí)行對Hive倉庫的查詢和讀寫。

在Spark作業(yè)中,數(shù)據(jù)通常在內(nèi)存中進行計算和操作,并且通過網(wǎng)絡(luò)進行節(jié)點間的數(shù)據(jù)傳輸。Snappy壓縮算法已經(jīng)被廣泛應(yīng)用于各種大數(shù)據(jù)處理框架中,并且通常是默認的壓縮選項。在Spark系統(tǒng)中,用戶無需額外的配置即可使用Snappy壓縮算法,這使得它成為Spark處理數(shù)據(jù)的首選壓縮方式之一。

Snappy壓縮算法是一種同時具備非常高的壓縮速度,和較為合理的壓縮率的壓縮算法。Snappy壓縮具有速度快、占用內(nèi)存小、通用性強的優(yōu)點,被廣泛應(yīng)用于大規(guī)模數(shù)據(jù)處理、網(wǎng)絡(luò)傳輸、數(shù)據(jù)庫存儲、機器學習、圖像處理等多個領(lǐng)域。

目前使用Snappy算法進行壓縮解壓縮的場景全部基于CPU進行,CPU除了需要維持整個計算場景的數(shù)據(jù)調(diào)度,還需要額外的算力進行壓縮解壓縮計算。CPU作為通用處理芯片,在大數(shù)據(jù)高密集型的數(shù)據(jù)計算上并無明顯優(yōu)勢,這使得大部分應(yīng)用場景下基于CPU運算時計算算力成為性能的主要瓶頸。

中科馭數(shù)自研的基于KPU架構(gòu)的DPU芯片作為專用的數(shù)據(jù)處理芯片,在處理復雜的數(shù)據(jù)計算時相比于CPU擁有極高的性能提升。因此將Snappy壓縮解壓縮算法由CPU卸載到DPU,可以極大的提升計算性能。在復雜場景下,CPU專注于數(shù)據(jù)傳遞和計算任務(wù)調(diào)度,DPU專注于壓縮解壓縮計算。

中科馭數(shù)HADOS是一款敏捷異構(gòu)軟件平臺,能夠為網(wǎng)絡(luò)、存儲、安全、大數(shù)據(jù)計算等場景進行提速。對于大數(shù)據(jù)計算場景,HADOS可以認為是一個異構(gòu)執(zhí)行庫,提供了數(shù)據(jù)類型、向量數(shù)據(jù)結(jié)構(gòu)、表達式計算、IO和資源管理等功能。為了發(fā)揮CPU與DPU各自的性能優(yōu)勢,我們開發(fā)了HADOS-RACE項目,結(jié)合HADOS平臺,既能夠發(fā)揮CPU高速穩(wěn)定的計算調(diào)度能力,又可以發(fā)揮DPU的向量化執(zhí)行能力。

我們通過實驗發(fā)現(xiàn),Spark讀數(shù)據(jù)的解壓和寫數(shù)據(jù)的壓縮過程,在耗時上占比比較高,將Snappy壓縮解壓縮的計算任務(wù)通過HADOS-RACE卸載到DPU上, 相比于純CPU計算,性能可提升約2倍。

本文將簡單介紹基于DPU的Snappy壓縮解壓縮計算原理,并介紹如何基于DPU和HADOS-RACE來加速Snappy壓縮解壓縮計算,為大規(guī)模數(shù)據(jù)分析和處理提供更可靠的解決方案。

1.2 挑戰(zhàn)和困難

在數(shù)據(jù)處理和傳輸?shù)念I(lǐng)域,快速且高效的壓縮算法對于提高系統(tǒng)性能至關(guān)重要。然而,盡管Snappy壓縮解壓縮算法以其快速的壓縮和解壓縮速度而聞名,但其卻存在一個不容忽視的挑戰(zhàn),即對CPU和內(nèi)存資源的大量占用,從而導致性能下降的問題。

Snappy算法在壓縮和解壓縮數(shù)據(jù)時需要進行復雜的計算和處理。雖然它以其高效的算法設(shè)計和優(yōu)化而著稱,但在處理大量數(shù)據(jù)時,仍會對CPU提出較高的要求。特別是在需要快速壓縮或解壓縮大文件時,Snappy算法的CPU消耗可能會變得更為顯著,從而導致系統(tǒng)整體性能的下降。對于CPU性能較低的系統(tǒng)而言,這一挑戰(zhàn)尤為嚴峻,可能導致系統(tǒng)響應(yīng)變慢,甚至造成任務(wù)阻塞和性能瓶頸。

綜上所述,Snappy壓縮解壓縮算法的高效性和速度帶來了性能優(yōu)勢,但其對CPU的大量占用也成為其性能低下的一個主要挑戰(zhàn)。

二、整體方案

wKgZomYBSXOAHfkiAAL8llhFqoo690.png

圖一:Spark基于DPU Snappy壓縮算法的異構(gòu)加速整體方案

上圖所示為Spark SQL的一個涉及FileScan、Shuffle、Aggregate、OrderBy計算的完整數(shù)據(jù)流轉(zhuǎn)過程,Spark SQL的數(shù)據(jù)處理首先需要讀取HDFS分布式文件存儲系統(tǒng)中的Snappy壓縮文件,然后會對Snappy壓縮文件進行解壓縮處理,從而得到計算所需的數(shù)據(jù)。拿到數(shù)據(jù)后根據(jù)SQL的邏輯進行相應(yīng)的計算,常見的計算比如Filter、Aggregate、Join、Order By等,經(jīng)過數(shù)據(jù)計算拿到想要輸出的結(jié)果數(shù)據(jù)。最后會將結(jié)果數(shù)據(jù)寫出并按Snappy格式進行壓縮,得到的壓縮文件會寫回到HDFS中存儲。

wKgZomYBSXyAXBo_AAIEkJgmW6w137.png

圖二:基于DPU的算子卸載加速流程

上圖所示為Spark將算子卸載到DPU進行計算的一個通用流程。首先Spark將SQL進行解析并得到最終的物理執(zhí)行計劃,然后將物理執(zhí)行計劃轉(zhuǎn)化為具體的算子操作,Spark會通過HADOS-RACE Plugin將具體算子卸載到DPU進行處理。在DPU處理過程中,首先需要執(zhí)行FileScan算子,將數(shù)據(jù)從HDFS文件系統(tǒng)中讀取出來并對Snappy壓縮文件執(zhí)行解壓縮操作。中間過程是對解壓縮的數(shù)據(jù)進行計算,得到最終的結(jié)果數(shù)據(jù)。最后會將結(jié)果數(shù)據(jù)按Snappy格式壓縮并導出到HDFS中存儲。

在對整個Spark計算過程進行性能分析后,發(fā)現(xiàn)Snappy壓縮和解壓縮是兩個耗時非常高的過程,占整個計算過程的比重較高。因此我們需要對Snappy的壓縮和解壓縮過程進行加速。

我們采用軟硬件結(jié)合的方式,在數(shù)據(jù)壓縮解壓縮鏈路的軟硬件兩大方面都進行了全面提升和加速。

在軟件方面,基于硬件對不同場景、數(shù)據(jù)量的壓縮解壓縮表現(xiàn),HADOS-RACE可以靈活選擇合適的壓縮、解壓縮的硬件平臺。

在硬件方面,自研的DPU計算引擎擁有強大的Snappy壓縮、解壓縮能力,滿足日益復雜的計算場景。

三、核心加速階段

wKgZomYBPGqASeG_AACwef-WNkE680.png

圖三:基于DPU的整體加速流程圖

加速階段如上圖所示,核心數(shù)據(jù)加速方案分為兩個階段,分別為 1.智能壓縮解壓縮策略選擇階段;2.對數(shù)據(jù)壓縮解壓縮階段。

3.1 策略選擇階段

3.1.1 面臨挑戰(zhàn)

在數(shù)據(jù)壓縮解壓縮過程中,壓縮解壓縮策略選擇階段是整個過程的開始。傳統(tǒng)的硬件體系結(jié)構(gòu)中,數(shù)據(jù)的壓縮和解壓縮過程通常只能依賴CPU完成,沒有其他策略可以選擇,從而無法利用GPU、DPU等其他處理器資源。這種局限性導致數(shù)據(jù)壓縮解壓縮過程會大量占用CPU資源,從而降低系統(tǒng)的性能。

3.1.2 解決方案與原理

近年來,隨著數(shù)據(jù)處理領(lǐng)域的不斷發(fā)展和硬件技術(shù)的進步,DPU、GPU等計算資源的加入為數(shù)據(jù)壓縮解壓縮帶來了新的可能性。這些不同的硬件平臺具有各自獨特的特點和優(yōu)勢,可以根據(jù)不同的場景和需求來選擇合適的硬件平臺進行數(shù)據(jù)壓縮解壓縮。

HADOS-RACE的IO模塊負責將數(shù)據(jù)從硬盤讀入內(nèi)存中,并將其交由Compressor模塊進行卸載策略判斷。通過IO模塊的數(shù)據(jù)加載過程,系統(tǒng)能夠根據(jù)數(shù)據(jù)的特點和硬件平臺的性能選擇合適的壓縮解壓縮策略,從而實現(xiàn)數(shù)據(jù)處理的優(yōu)化和提升。

在HADOS-RACE中,基于硬件對不同場景、數(shù)據(jù)量的性能表現(xiàn),可以靈活配置壓縮解壓縮策略。例如,當數(shù)據(jù)量比較小的時候,可以直接通過CPU進行壓縮解壓縮,減少了內(nèi)存和DPU硬件之間的數(shù)據(jù)傳輸,從而提高了系統(tǒng)的性能和效率。而對于大規(guī)模數(shù)據(jù)處理的場景,可以利用DPU等硬件資源進行并行計算,加速數(shù)據(jù)的處理速度。

3.1.3 優(yōu)勢與效果

HADOS-RACE的智能策略選擇模塊在數(shù)據(jù)加載過程中發(fā)揮了重要作用,通過分析數(shù)據(jù)的特征和硬件平臺的性能,實現(xiàn)了對壓縮解壓縮策略的選擇。這種靈活配置的策略不僅提高了數(shù)據(jù)處理的效率,也降低了系統(tǒng)的資源消耗,為數(shù)據(jù)處理和應(yīng)用提供了更好的支持。

我們可以根據(jù)一定的策略選擇合適的硬件平臺來進行數(shù)據(jù)壓縮解壓縮,從而實現(xiàn)數(shù)據(jù)壓縮解壓縮的優(yōu)化和提升。這為未來的數(shù)據(jù)壓縮解壓縮領(lǐng)域的發(fā)展帶來了新的機遇和挑戰(zhàn),也為用戶提供了更加靈活和高效的數(shù)據(jù)壓縮解壓縮方案。

3.2 壓縮解壓縮階段

3.2.1 面臨挑戰(zhàn)

由于CPU在數(shù)據(jù)處理方面具有較強的通用性和靈活性,因此壓縮解壓縮算法通常被設(shè)計為在CPU上執(zhí)行。然而,與DPU相比,CPU的并行處理能力相對較弱,無法充分發(fā)揮硬件資源的潛力。在大規(guī)模數(shù)據(jù)處理的場景下,數(shù)據(jù)壓縮解壓縮過程可能成為CPU的瓶頸,導致系統(tǒng)性能下降。此外,由于數(shù)據(jù)壓縮解壓縮是一個計算密集型任務(wù),當系統(tǒng)中同時存在其他需要CPU資源的任務(wù)時,壓縮解壓縮過程可能會與其他任務(wù)產(chǎn)生競爭,進一步加劇了CPU資源的緊張程度,導致系統(tǒng)整體的響應(yīng)速度變慢。

3.2.2 解決方案與原理

在傳統(tǒng)的硬件體系結(jié)構(gòu)中,數(shù)據(jù)的壓縮和解壓縮過程通常只能依賴CPU完成。然而,隨著芯片技術(shù)的不斷發(fā)展和創(chuàng)新,現(xiàn)代計算機系統(tǒng)已經(jīng)實現(xiàn)了DPU等計算資源的利用,從而在數(shù)據(jù)處理領(lǐng)域帶來了革命性的變化。DPU的并行計算能力遠遠超過CPU,使得它成為處理大規(guī)模數(shù)據(jù)的理想選擇。近年來,隨著DPU技術(shù)的日益成熟和運用,數(shù)據(jù)壓縮解壓縮過程已經(jīng)可以借助DPU來執(zhí)行,從而大大減少了對CPU資源的占用,提升了系統(tǒng)的性能和效率。

隨著DPU芯片技術(shù)的不斷發(fā)展和成熟,DPU已經(jīng)成為了處理大規(guī)模數(shù)據(jù)的強大工具。DPU的并行計算能力遠遠超過CPU,能夠同時處理大量數(shù)據(jù),極大地加快了數(shù)據(jù)處理的速度。因此,現(xiàn)在可以利用DPU來執(zhí)行數(shù)據(jù)的壓縮和解壓縮過程,從而減少了對CPU資源的占用,提升了系統(tǒng)的性能和效率。

3.2.3 優(yōu)勢與效果

DPU在數(shù)據(jù)壓縮解壓縮中的應(yīng)用,主要體現(xiàn)在以下幾個方面:

首先,DPU能夠同時處理多個數(shù)據(jù)塊,實現(xiàn)真正的并行計算。在數(shù)據(jù)壓縮解壓縮過程中,可以將大規(guī)模數(shù)據(jù)劃分成多個小塊,然后通過DPU同時對這些數(shù)據(jù)塊進行壓縮或解壓縮,極大地提高了處理速度。

此外,DPU的計算能力可以輕松處理大規(guī)模數(shù)據(jù),從而滿足了現(xiàn)代大數(shù)據(jù)處理的需求??梢岳肈PU來執(zhí)行數(shù)據(jù)的壓縮和解壓縮過程,從而提高系統(tǒng)的性能和效率。

綜上所述,利用DPU進行數(shù)據(jù)壓縮解壓縮等算力的卸載,已經(jīng)成為了計算機系統(tǒng)的重要趨勢。通過充分利用DPU的并行計算能力和卡上內(nèi)存,可以大大減少對CPU資源的占用,提升系統(tǒng)的性能和效率。相信在未來的snappy數(shù)據(jù)壓縮解壓縮領(lǐng)域,DPU將會發(fā)揮越來越重要的作用。

四、加速效果

基于目前HADOS-RACE已經(jīng)實現(xiàn)的Snappy壓縮解壓縮方案,制定了對應(yīng)的性能測試計劃。首先生成snappy測試數(shù)據(jù),使用基于CPU和DPU的Spark分別對數(shù)據(jù)進行處理,記錄各自的Snappy壓縮解壓縮階段和Spark整體端到端的耗時和吞吐。執(zhí)行的測試語句為:select * from table where a1 is not null and a2 is not null(盡量減少中間的計算過程,突出Snappy壓縮解壓縮的過程)。

4.1 壓縮解壓縮加速效果

單獨分析Snappy壓縮解壓縮階段,基于CPU的Snappy解壓縮,吞吐量為300MB/s。而將解壓縮任務(wù)卸載到DPU后,DPU核內(nèi)計算的吞吐量可達到1585MB/s??梢钥吹剑贒PU進行Snappy解壓縮,相比基于CPU進行Snappy解壓縮,性能可提升約5倍。

對于系統(tǒng)整體而言,壓縮解壓縮計算的輸入數(shù)據(jù)和輸出數(shù)據(jù),如果需要傳輸?shù)紺PU繼續(xù)做計算,則有額外的PCIe數(shù)據(jù)傳輸?shù)臅r間損耗,由于不同的數(shù)據(jù)量及壓縮比帶來的整體效果差別較大,所以以下測試數(shù)據(jù)僅供參考。表格中的DPU數(shù)據(jù)均為結(jié)合PCIe傳輸消耗的結(jié)果。壓縮前的數(shù)據(jù)量均為128MB,但是由于數(shù)據(jù)內(nèi)容不同導致壓縮比不同,進而導致吞吐的不同,從以下測試結(jié)果中可以看出,壓縮率越大,計算占比越高,DPU表現(xiàn)的越好。

wKgZomYBPGqAcheIAAYJKGS7Rw4671.png

圖四:基于DPU的Snappy壓縮解壓縮方案測試結(jié)果

4.2 端到端整體加速效果

基于CPU的Spark計算過程總體比基于DPU的Spark計算過程耗時減少了約50%。相當于基于DPU的端到端執(zhí)行性能是基于CPU端到端性能的兩倍。詳細測試結(jié)果如下所示:

wKgaomYBPO6AAc02AAAPYGODK1c600.png

圖五:基于DPU加速的端到端方案測試結(jié)果

4.3 結(jié)果分析

從測試結(jié)果中可以看到,在壓縮率約為50%至70%時,基于DPU進行Snappy解壓縮相比基于CPU進行Snappy解壓縮,性能有1.1至1.5倍提升,其他情況下解壓縮性能均有下降。造成這一現(xiàn)象的原因是,此次測試沒有對DPU進行流程優(yōu)化,從主機向DPU板卡傳輸數(shù)據(jù)時,DPU并沒有并發(fā)執(zhí)行計算任務(wù)。DPU的計算流程還有著極大的優(yōu)化空間,優(yōu)化后,DPU中的計算任務(wù)可以以流水線的形式進行調(diào)度,則數(shù)據(jù)傳輸過程將不會占用整體計算時間。

從Spark整個執(zhí)行過程來看,基于DPU的Spark計算過程總體比基于CPU的Spark計算過程有2倍的性能提升。單獨從Snappy壓縮解壓縮階段看,在壓縮率20%至100%之間,基于DPU的Snappy解壓縮,相比于基于CPU的Snappy解壓縮,性能上可以有1.5至5倍的性能提升。

五、未來規(guī)劃

5.1 現(xiàn)有優(yōu)勢

性能方面,得益于DPU做算力卸載的高效性和智能策略選擇算法,相對于傳統(tǒng)壓縮解壓縮方式,基于DPU進行snappy壓縮解壓縮具備較為明顯的性能優(yōu)勢。

資源占用方面,得益于將CPU的計算卸載到DPU上執(zhí)行,服務(wù)器的CPU、內(nèi)存、IO和網(wǎng)絡(luò)資源占用等方面都有明顯降低。特別是CPU資源,可以將壓縮解壓縮卸載到DPU的同時完成其他數(shù)據(jù)計算處理任務(wù)。

5.2 未來規(guī)劃

優(yōu)化和完善現(xiàn)有功能,繼續(xù)增加其他算力的卸載。

未來計劃在存算分離場景下適配snappy壓縮解壓縮功能。從遠端讀取數(shù)據(jù)后,首先數(shù)據(jù)會直接經(jīng)過壓縮或解壓縮計算,從DPU卡出來的數(shù)據(jù)已經(jīng)是經(jīng)過壓縮解壓縮的,無需多余的數(shù)據(jù)傳輸和計算。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4700

    瀏覽量

    94796
  • SQL
    SQL
    +關(guān)注

    關(guān)注

    1

    文章

    781

    瀏覽量

    44820
  • DPU
    DPU
    +關(guān)注

    關(guān)注

    0

    文章

    390

    瀏覽量

    24711
  • SPARK
    +關(guān)注

    關(guān)注

    1

    文章

    106

    瀏覽量

    20419
收藏 人收藏
  • 中科驭数1

評論

相關(guān)推薦
熱點推薦

第三屆NVIDIA DPU黑客松開啟報名

第三屆 NVIDIA DPU 中國虛擬黑客松(Hackathon)將于 6 月 28 日 - 6 月 30 日正式開啟!作為備受廣大開發(fā)者期待的年度賽事,它將提供與 NVIDIA 加速網(wǎng)絡(luò)技術(shù)深度
的頭像 發(fā)表于 05-27 10:16 ?279次閱讀

DPU232—高度集成USB到UART橋接控制器 國產(chǎn)替代方案

DPU232是一款高度集成的USB到UART橋接控制器,提供了一種簡單的解決方案,可以使用最少的元器件和PCB空間,將RS232接口轉(zhuǎn)換為USB接口。DPU232包括一個USB2.0全速功能控制器
發(fā)表于 04-01 10:53

NVIDIA加速的Apache Spark助力企業(yè)節(jié)省大量成本

隨著 NVIDIA 推出 Aether 項目,通過采用 NVIDIA 加速的 Apache Spark 企業(yè)得以自動加速其數(shù)據(jù)中心規(guī)模的分析工作負載,從而節(jié)省數(shù)百萬美元。
的頭像 發(fā)表于 03-25 15:09 ?448次閱讀
NVIDIA<b class='flag-5'>加速</b>的Apache <b class='flag-5'>Spark</b>助力企業(yè)節(jié)省大量成本

利用NVIDIA DPF引領(lǐng)DPU加速云計算的未來

DPU 的強大功能,并優(yōu)化 GPU 加速計算平臺。作為一種編排框架和實施藍圖,DPF 使開發(fā)者、服務(wù)提供商和企業(yè)能夠無縫構(gòu)建 BlueField 加速的云原生軟件平臺。
的頭像 發(fā)表于 01-24 09:29 ?598次閱讀
利用NVIDIA DPF引領(lǐng)<b class='flag-5'>DPU</b><b class='flag-5'>加速</b>云計算的未來

算法加速的概念、意義、流程和應(yīng)用

本文介紹算法加速的概念、意義、流程和應(yīng)用 一、什么是算法加速 面向“最耗時”的部分做專用化處理: 在軟件運行時,總有一些特定算法會消耗大量
的頭像 發(fā)表于 01-15 09:34 ?492次閱讀

EE-257:面向Blackfin處理器的引導壓縮/解壓縮算法

電子發(fā)燒友網(wǎng)站提供《EE-257:面向Blackfin處理器的引導壓縮/解壓縮算法.pdf》資料免費下載
發(fā)表于 01-07 13:56 ?0次下載
EE-257:面向Blackfin處理器的引導<b class='flag-5'>壓縮</b>/解<b class='flag-5'>壓縮</b><b class='flag-5'>算法</b>

【BearPi-Pico H3863星閃開發(fā)板體驗連載】LZO壓縮算法移植

壓縮算法使用 一、概述 壓縮算法是一類用于減小數(shù)據(jù)大小的計算方法,它們在數(shù)據(jù)存儲和傳輸領(lǐng)域扮演著重要角色。壓縮
發(fā)表于 11-10 21:45

壓縮算法的類型和應(yīng)用

壓縮算法是一種通過減少數(shù)據(jù)量來節(jié)省存儲空間或傳輸數(shù)據(jù)的技術(shù)。壓縮算法可以分為兩種類型:有損壓縮和無損壓縮
的頭像 發(fā)表于 10-21 13:50 ?777次閱讀

Huffman壓縮算法概述和詳細流程

Huffman壓縮算法是一種基于字符出現(xiàn)頻率的編碼算法,通過構(gòu)建Huffman樹,將出現(xiàn)頻率高的字符用短編碼表示,出現(xiàn)頻率低的字符用長編碼表示,從而實現(xiàn)對數(shù)據(jù)的壓縮
的頭像 發(fā)表于 10-21 13:48 ?774次閱讀

使用qboot時選擇了壓縮率更高的zip算法,但是發(fā)現(xiàn)編譯報錯,為什么?

在使用qboot時選擇了壓縮率更高的zip算法,但是發(fā)現(xiàn)編譯報錯,如下圖:
發(fā)表于 09-26 07:22

spark為什么比mapreduce快?

spark為什么比mapreduce快? 首先澄清幾個誤區(qū): 1:兩者都是基于內(nèi)存計算的,任何計算框架都肯定是基于內(nèi)存的,所以網(wǎng)上說的spark是基于內(nèi)存計算所以快,顯然是錯誤的 2;DAG計算模型
的頭像 發(fā)表于 09-06 09:45 ?476次閱讀

淺談國產(chǎn)異構(gòu)雙核RISC-V+FPGA處理器AG32VF407的優(yōu)勢和應(yīng)用場景

和圖像識別是核心任務(wù)。異構(gòu)處理器可以利用FPGA的并行處理能力加速圖像處理算法,同時RISC-V處理器負責任務(wù)調(diào)度和數(shù)據(jù)管理。 網(wǎng)絡(luò)安全 : 在網(wǎng)絡(luò)安全領(lǐng)域,異構(gòu)處理器可以提供硬件
發(fā)表于 08-31 08:32

IaaS+on+DPU(IoD)+下一代高性能算力底座技術(shù)白皮書

、VMware、Palo Alto 等公司紛紛推出相關(guān)解決方案。這些方案背后共同的本質(zhì)思想是:將云計算的 IaaS 層組件從服務(wù)器側(cè)卸載后圍繞 DPU 構(gòu)筑高性能算力底座,與 AWS、阿里云的技術(shù)路線不謀而合
發(fā)表于 07-24 15:32

spark運行的基本流程

前言: 由于最近對spark的運行流程非常感興趣,所以閱讀了《Spark大數(shù)據(jù)處理:技術(shù)、應(yīng)用與性能優(yōu)化》一書。通過這本書的學習,了解了spark的核心技術(shù)、實際應(yīng)用場景以及性能優(yōu)化的方法。本文旨在
的頭像 發(fā)表于 07-02 10:31 ?674次閱讀
<b class='flag-5'>spark</b>運行的基本流程

Spark基于DPU的Native引擎算子卸載方案

1.背景介紹 Apache Spark(以下簡稱Spark)是一個開源的分布式計算框架,由UC Berkeley AMP Lab開發(fā),可用于批處理、交互式查詢(Spark SQL)、實時流處理
的頭像 發(fā)表于 06-28 17:12 ?979次閱讀
<b class='flag-5'>Spark</b>基于<b class='flag-5'>DPU</b>的Native引擎算子卸載<b class='flag-5'>方案</b>

電子發(fā)燒友

中國電子工程師最喜歡的網(wǎng)站

  • 2931785位工程師會員交流學習
  • 獲取您個性化的科技前沿技術(shù)信息
  • 參加活動獲取豐厚的禮品