隨著人工智能計(jì)劃的進(jìn)展,為企業(yè)提供可信、可擴(kuò)展的支持模型的需求對(duì)于確保人工智能項(xiàng)目保持正軌至關(guān)重要。為了支持構(gòu)建人工智能應(yīng)用程序, NVIDIA AI Enterprise 提供了簡(jiǎn)化端到端人工智能管道的軟件,從數(shù)據(jù)準(zhǔn)備到模型訓(xùn)練,再到模擬和大規(guī)模部署。
NVIDIA AI Enterprise 是 NVIDIA 人工智能平臺(tái)的軟件層,包括:
優(yōu)化以在加速的基礎(chǔ)架構(gòu)上運(yùn)行,從而實(shí)現(xiàn)性能、生產(chǎn)效率和成本節(jié)約。
企業(yè)級(jí)支持、安全性和 API 穩(wěn)定性。
人工智能工作流程和預(yù)先訓(xùn)練的模型,以加快生產(chǎn)時(shí)間。
認(rèn)證,可部署在任何地方的云、數(shù)據(jù)中心和邊緣。
直接在 Snowflake 數(shù)據(jù)云上啟用 AI 工作流
數(shù)據(jù)是生成型人工智能的燃料,而為企業(yè)人工智能用例提供燃料的數(shù)據(jù)就存在于 Snowflake 中。 Snowpark Container Services 現(xiàn)在提供了 NVIDIA AI 平臺(tái),客戶可以在不犧牲安全性、性能或易用性的情況下將數(shù)據(jù)投入使用。
通過 Snowpark Container Services 使用 NVIDIA AI Enterprise 加速基礎(chǔ)設(shè)施和計(jì)算庫(kù),開發(fā)人員和數(shù)據(jù)科學(xué)家可以輕松構(gòu)建加速的 AI 工作流程。
使用 Snowpark,企業(yè)可以安全地部署和處理用于人工智能和 ML 的 Python 代碼。開發(fā)人員還可以擴(kuò)展加速的 ML 工作負(fù)載,并在已存儲(chǔ)數(shù)據(jù)的地方運(yùn)行復(fù)雜的人工智能模型,如 LLM 。這樣可以減少潛在的安全風(fēng)險(xiǎn)和延遲,特別是當(dāng)移動(dòng)大量數(shù)據(jù)時(shí)。
以下工作流程展示了數(shù)據(jù)科學(xué)家如何實(shí)現(xiàn)從數(shù)據(jù)處理到實(shí)時(shí)推理的每個(gè)階段,作為新合作伙伴關(guān)系的一部分。本工作流程和示例用例中概述的技術(shù),包括 NVIDIA RAPIDS 、 NVIDIA / Merlin 、 NVIDIA TensorRT 和 NVIDIA SGG2 ,都包含在 NVIDIA AI Enterprise 中,并可在 Snowpark Container Services 上獲得。
圖 1 。使用 NVIDIA AI Enterprise 從 Snowpark Container Services 中存儲(chǔ)的數(shù)據(jù)構(gòu)建 AI 模型的示例工作流
示例用例:訓(xùn)練推薦模
基于會(huì)話的推薦系統(tǒng)在內(nèi)容豐富的應(yīng)用程序中變得越來越重要,這些應(yīng)用程序旨在提供更相關(guān)的下一個(gè)項(xiàng)目預(yù)測(cè)。訓(xùn)練這些模型首先要加載數(shù)據(jù),并使用 Snowpark Python 庫(kù)進(jìn)行初始 SQL 和 DataFrame 預(yù)處理。
客戶可以在 Snowpark Container Services 中運(yùn)行的 Jupyter Notebook 中使用 NVIDIA RAPIDS 、 Merlin 和其他人工智能框架來增強(qiáng)數(shù)據(jù)處理和訓(xùn)練模型。
NVTabular 是 Merlin 的一部分,是一個(gè)加速特征工程庫(kù),旨在生成推薦系統(tǒng)模型訓(xùn)練所需的關(guān)鍵特征。使用 NVTabular 準(zhǔn)備數(shù)據(jù)后, Merlin 中的其他加速計(jì)算庫(kù)開始訓(xùn)練人工智能工作流程。
在非常大的數(shù)據(jù)集上訓(xùn)練模型的任務(wù)可能非常耗時(shí)。在訓(xùn)練過程中,當(dāng)計(jì)算核心處理數(shù)據(jù)集時(shí),數(shù)據(jù)集通常會(huì)被分塊復(fù)制到內(nèi)存中或從內(nèi)存中復(fù)制出來。使用 GPU 訓(xùn)練模型可以提供更高的吞吐量和更快的模型訓(xùn)練,因?yàn)樗鼈儼ǜ邘拑?nèi)存,并利用越來越多的計(jì)算核心進(jìn)行并行處理。
在 Snowpark 容器服務(wù)上運(yùn)營(yíng)導(dǎo)致在具有加速計(jì)算的預(yù)測(cè)模型的訓(xùn)練期間提速20倍。這極大地提高了數(shù)據(jù)科學(xué)家在模型創(chuàng)建過程中的生產(chǎn)力,并通過在更短的時(shí)間內(nèi)完成更多任務(wù)來降低總體擁有成本。
訓(xùn)練完成后,使用樣本測(cè)試數(shù)據(jù)測(cè)試模型的準(zhǔn)確性。接著,根據(jù)需要對(duì)模型進(jìn)行優(yōu)化和重新訓(xùn)練。最后,將新訓(xùn)練的模型發(fā)布到注冊(cè)表中,例如Snowpark 模型注冊(cè)表(私人預(yù)覽)。
經(jīng)過培訓(xùn), NVIDIA AI Enterprise 提供了 TensorRT ,用于加速計(jì)算的優(yōu)化。在工作流的最后階段,模型部署并開始執(zhí)行推理任務(wù)。它在 Triton 推理服務(wù)器內(nèi)運(yùn)行,實(shí)時(shí)消耗數(shù)據(jù)并提供見解。
-
NVIDIA
+關(guān)注
關(guān)注
14文章
4986瀏覽量
103065 -
AI
+關(guān)注
關(guān)注
87文章
30896瀏覽量
269107 -
人工智能
+關(guān)注
關(guān)注
1791文章
47279瀏覽量
238510
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論