2023 年注定是屬于大模型和向量數(shù)據(jù)庫的巔峰時刻。國內(nèi)大模型的發(fā)展也迎來前所未有之機遇,“百?!奔?zhàn)正酣。在剛閉幕的世界人工智能大會上,國內(nèi)外科技公司全線加入,三十余款大模型集中亮相,“國家隊”塵埃落定,并正式啟動大模型測試國家標準制訂,掀起新一輪大模型熱浪。而作為“大模型記憶體”、AIGC 應(yīng)用開發(fā)新范式的重要組成部分,向量數(shù)據(jù)庫的演進也逐漸達到了前所未有的新高度。
Milvus自2019年正式開源以來,已經(jīng)成長為全球最大、最活躍的向量數(shù)據(jù)庫開源項目與開發(fā)者社區(qū)。作為Milvus背后的開發(fā)者與運營者,Zilliz 一直走在向量數(shù)據(jù)庫的最前沿,始終秉承為開發(fā)者提供易用性強、性價比高的向量數(shù)據(jù)庫服務(wù)的理念。經(jīng)過五年的持續(xù)打磨,終于在國內(nèi)推出了基于 Milvus的全托管向量數(shù)據(jù)庫云服務(wù)產(chǎn)品——Zilliz Cloud。
經(jīng)過不斷地開發(fā)與升級,Zilliz Cloud 儼然成為向量數(shù)據(jù)庫賽道的領(lǐng)先者。隨著 Zilliz Cloud 在國內(nèi)全面開啟向量數(shù)據(jù)庫云服務(wù),也為向量數(shù)據(jù)庫的高速發(fā)展開啟了全新的紀元。對于此次在國內(nèi)的服務(wù)落地,Zilliz 秉承的使命和目標尤為清晰和明確:
●提供全球最專業(yè)的全托管向量數(shù)據(jù)庫云服務(wù)。
●打破向量數(shù)據(jù)庫服務(wù)集中在北美,國內(nèi)無可用向量數(shù)據(jù)庫服務(wù)的尷尬局面。
●滿足向量數(shù)據(jù)庫服務(wù)多云的需求,避免業(yè)務(wù)被單一云環(huán)境限制。
●為跨境業(yè)務(wù)中所需要的統(tǒng)一向量數(shù)據(jù)庫服務(wù)和架構(gòu)提供可行性。
●Milvus 開源解決方案、SaaS、PaaS 統(tǒng)一接口標準,無縫線下/云上遷移,并大幅度降低混合部署的綜合成本。
●提供比開源 Milvus 具有更高性價比、更穩(wěn)定服務(wù)支持的產(chǎn)品和解決方案。
成熟穩(wěn)定,全球率先支持十億級別向量規(guī)模的服務(wù)
Milvus 自開源以來,一直都是企業(yè)用戶自建向量數(shù)據(jù)平臺的首選,全套技術(shù)解決方案已被上萬家企業(yè)所采用,其中百度、新浪、理想汽車、華泰證券、沃爾瑪、LINE、BIGO 等頭部企業(yè)在實踐中經(jīng)過反復(fù)驗證,均已順利投產(chǎn)。
向量數(shù)據(jù)庫是 AIGC 大模型的重要補充,是提供準確可靠、高度可擴展的長短期“記憶”的關(guān)鍵載體。近一年,向量數(shù)據(jù)庫項目如雨后春筍般涌現(xiàn)。然而,大部分向量數(shù)據(jù)庫支持的向量數(shù)據(jù)規(guī)模僅停留在千萬量級,并不具備支撐生產(chǎn)環(huán)境的能力。
相較之下,Milvus 在過去 5 年的客戶應(yīng)用場景覆蓋各行各業(yè),早在 2021 年就實現(xiàn)穩(wěn)定支持十億級向量規(guī)模的線上服務(wù)。如今,Zilliz Cloud 的向量數(shù)據(jù)庫服務(wù)可輕松支持十億級以上規(guī)模向量數(shù)據(jù),可用性高達 99.9%。
此外,在產(chǎn)品與技術(shù)背后,Zilliz 亦擁有全球最資深的向量數(shù)據(jù)庫專家團隊,可以為每一位企業(yè)用戶配備 4 名技術(shù)支持,“沒有人比我們更懂向量數(shù)據(jù)庫”是團隊對開源社區(qū)與商業(yè)化用戶的承諾。
高性能+高性價比,性能優(yōu)異遠超同類產(chǎn)品
當前主流的向量數(shù)據(jù)索引算法是內(nèi)存算法或內(nèi)存/SSD 混合,算法內(nèi)核以矩陣計算為主(類似 HPC),大規(guī)模向量檢索與分析是計算/內(nèi)存雙重密集的任務(wù)。這意味著向量數(shù)據(jù)庫作為基礎(chǔ)設(shè)施,對于性能與成本更加敏感。
從性能方面來看,Zilliz Cloud 在 QPS 和降低查詢延遲方面遠超其他同類產(chǎn)品。我們將 Zilliz Cloud 、Milvus、Pinecone、ElasticCloud 4 個常見的向量數(shù)據(jù)庫(ElasticCloud 嚴格來說不屬于向量數(shù)據(jù)庫,但附帶向量能力,在傳統(tǒng)文本檢索領(lǐng)域受眾最廣,可以視為目前傳統(tǒng)數(shù)據(jù)庫支持向量檢索的代表)在同等資源及 6 組向量查詢?nèi)蝿?wù)的同等條件下進行了對比(測試框架已開源,詳見 VectorDBBench,Leaderboard)。
對比結(jié)果如下:
在查詢吞吐方面,Zilliz Cloud 在全部6組查詢?nèi)蝿?wù)中全面力壓向量數(shù)據(jù)庫 Pinecone,整體性能平均超越2倍以上。與此同時,Zilliz Cloud 相比 Milvus,也有將近一倍的提升,表現(xiàn)令人眼前一亮。ElasticCloud 作為傳統(tǒng)文本檢索服務(wù)的代表,向量查詢能力主要為補充能力,這 6 組查詢?nèi)蝿?wù)的 QPS 均在 50 以下。
查詢延遲方面,Zilliz Cloud 整體在 10 ms 以下,Milvus 整體在 20 ms 以下,Pinecone 在 20-40 ms 之間,ElasticCloud 差距較為明顯。
性價比方面,主要考察 Queries per dollar (高并發(fā)情況下,單位成本所能支持的查詢請求數(shù)量)。相較Pinecone、Elastic,Zilliz Cloud 的優(yōu)勢十分明顯。指標相比第二位的 Pinecone 最多可以高出 1 個數(shù)量級(Q1, Q2),在剩下的四組任務(wù)中普遍可以高 3 倍左右。(由于 Milvus 為開源方案,難以和商業(yè)化服務(wù)在相同標準下比較,我們在這組測試中將其移除。)
黑科技加持,軟硬件性能飆升,全新內(nèi)核火力全開
Zilliz Cloud 采用商業(yè)化引擎,綜合性能超過Milvus 開源引擎的 1 倍以上。引擎針對典型場景進行深度優(yōu)化,性能可提升 3-5 倍。
硬件層面,Zilliz 與英偉達、英特爾等一線硬件廠商有著長期穩(wěn)定的合作,向量算法內(nèi)核針對 X86、ARM、GPU 進行了定制化優(yōu)化。
軟件層面,Zilliz Cloud 推出了 Autoindex 智能索引。智能索引根據(jù)用戶的向量維度、數(shù)據(jù)規(guī)模、數(shù)據(jù)分布、查詢特性進行持續(xù)的自動化調(diào)優(yōu),免去用戶索引類型選型以及參數(shù)調(diào)優(yōu)的痛苦。據(jù) Zilliz 內(nèi)部測試,autoindex 智能索引已經(jīng)達到向量數(shù)據(jù)庫專家手工調(diào)優(yōu)效果的 84%,大幅超越用戶的平均水平。在下一階段,autoindex 智能索引的功能還會得到大幅度增強,支持用戶指定 recall 進行優(yōu)化,保證索引運行在指定查詢準確度的最優(yōu)點。
當然,針對最近大火的 AIGC 應(yīng)用,Zilliz Cloud 也推出了專門的特性支持:
●動態(tài) schema ,可以根據(jù) AIGC 迭代需要,靈活擴展向量特征或標簽字段。
●Partition Key ,支持 AIGC 應(yīng)用多用戶知識庫的利器,相較單獨建表方案,綜合成本可下降 2 -3 個數(shù)量級。
●支持 JSON 類型,可以將 JSON 與 embedding 這兩種超強能力相結(jié)合,實現(xiàn)基于 JSON 與 embedding 向量的混合數(shù)據(jù)表示以及復(fù)雜的業(yè)務(wù)邏輯。
打破 “CAP” 不可能三角,給用戶靈活選擇
向量數(shù)據(jù)庫技術(shù)發(fā)展到現(xiàn)在并不完美,通常情況下,業(yè)務(wù)需要在成本(Cost)、查詢效果與準確度(Accuracy)、查詢性能(Performance)之間做權(quán)衡,即向量數(shù)據(jù)庫的 CAP 問題。目前來看,CAP 是一個不可能三角,Zilliz 的解法是在典型的位置給出局部最優(yōu)解,并給用戶以靈活的選擇。
事實上,用戶的普遍場景可以歸納為性能需求型、容量需求型與成本敏感型。為此,Zilliz Cloud 在向量數(shù)據(jù)庫實例中也相應(yīng)提供了三類支持:性能型、容量型和經(jīng)濟型。不同的實例類型由不同的算法與硬件資源組合而成,適用于不同的業(yè)務(wù)場景。
●性能型實例適用于需要低延遲和高吞吐量的向量相似性檢索場景,該類型的實例能夠保證毫秒級的響應(yīng)。
性能型實例的適用場景包括但不限于:生成式 AI、推薦系統(tǒng)、搜索引擎、聊天機器人、內(nèi)容審核、LLM 增強的知識庫、金融風(fēng)控。
●容量型實例可以支持的數(shù)據(jù)量是性能型的 5 倍,但查詢延遲略有增加,因此適用于需要大量存儲空間的場景,尤其是需要處理千萬級以上向量數(shù)據(jù)的場景。
容量型實例的適用場景包括但不限于:搜索大規(guī)模的非結(jié)構(gòu)化數(shù)據(jù)(如:文本、圖像、音頻、視頻、藥物化學(xué)結(jié)構(gòu)等)、侵權(quán)檢測、生物身份驗證。
●經(jīng)濟型實例可支持的數(shù)據(jù)規(guī)模與容量型一致,但價格優(yōu)惠 7 折左右,性能略有下降,適用于追求高性價比或預(yù)算敏感的場景。
經(jīng)濟型實例的適用場景包括但不限于:數(shù)據(jù)標記或數(shù)據(jù)聚類、數(shù)據(jù)去重、數(shù)據(jù)異常檢測、平衡訓(xùn)練集類型分布。
支持大模型與非結(jié)構(gòu)化數(shù)據(jù)處理全生態(tài)覆蓋
沒有任何一套系統(tǒng)可以滿足使用者業(yè)務(wù)上的所有需求,向量數(shù)據(jù)庫也是如此。在以向量數(shù)據(jù)庫為支撐的業(yè)務(wù)中,往往需要處理多道流程,包括:
●業(yè)務(wù)數(shù)據(jù)的語義結(jié)構(gòu)化,如從文本數(shù)據(jù)中梳理標題 embedding、內(nèi)容段落的embedding、一二級主題、閱讀時間;
●面向端到端效果的模型選型,如尋找能帶來最佳效果的 embedding 模型選型;
●模型與向量數(shù)據(jù)庫的集成,如向量數(shù)據(jù)庫查詢驅(qū)動的原始數(shù)據(jù)召回以及后續(xù) LLM 對召回內(nèi)容的總結(jié)或重構(gòu)等。
為了進一步降低應(yīng)用構(gòu)建成本,提供標準化組件,Zilliz Cloud 為開發(fā)者提供了雙重支持:
●大模型生態(tài)對接。2023 年 3 月,Zilliz 作為 OpenAI 首批向量數(shù)據(jù)庫合作伙伴,完成了 Milvus 與 Zilliz Cloud 的插件化集成,被納入官方推薦的向量數(shù)據(jù)庫插件名單。不止如此,Zilliz 還與 LangChain、Cohere、LlamaIndex、Auto-GPT、BabyAGI 等熱門項目進行了深度集成。此外,與國產(chǎn)大模型如文心一言、通義千問、智譜 AI、MiniMax、360 智腦等對接工作正在進行中,近期將會有更多成果發(fā)布。
●面向非結(jié)構(gòu)化數(shù)據(jù)處理流水線。Zilliz Cloud 提供了開源的 Towhee 工具框架。開發(fā)者可以在熟悉的 Python 環(huán)境,以類似 Spark 的算子語法編寫自己的流水線,輕松處理文本、圖片、音頻、視頻、化合物結(jié)構(gòu)等非結(jié)構(gòu)化數(shù)據(jù)的 ETL 過程。Towhee 同時提供自動化編排工具,一鍵在 Python 環(huán)境驗證過的流水線組織成基于 Triton、TensorRT、ONNX 以及一系列硬件加速算法的服務(wù)鏡像,面向如文本近似搜索、智能問答、知識庫等典型場景。當然,Towhee 也提供深度優(yōu)化的標準流水線。
目前,Zilliz Cloud 提供 SaaS 和 PaaS 服務(wù),其中 SaaS 已覆蓋 AWS、GCP、阿里云,PaaS 覆蓋 AWS、GCP、Azure、阿里云、百度智能云、騰訊云和金山云。國內(nèi)官網(wǎng)已同步上線,更多詳情和案例可以訪問 Https://zilliz.com.cn(海外官網(wǎng)和云服務(wù)入口: Https://zilliz.com)。
為了加速打磨業(yè)界最佳實踐,我們即將啟動「尋找 AIGC 時代的 CVP 實踐之星」 專題活動,Zilliz 將聯(lián)合國內(nèi)頭部大模型廠商一同甄選應(yīng)用場景, 由雙方提供向量數(shù)據(jù)庫與大模型頂級技術(shù)專家為用戶賦能,一同打磨應(yīng)用,提升落地效果,賦能業(yè)務(wù)本身。如果你的應(yīng)用也適合 CVP 框架,且正為應(yīng)用落地和實際效果發(fā)愁,可直接申請參與活動,獲得最專業(yè)的幫助和指導(dǎo)。(注:CVP 即 C 代表以 ChatGPT 為代表的 LLMs,V 代表 Vector DB,P 代表 Prompt Engineering,聯(lián)系方式參見 business@zilliz.com)
2023 年伴隨著 AGI 和 LLMs 的爆發(fā)已經(jīng)過半,加速探索大模型落地之路已經(jīng)迫在眉睫。行業(yè)的高度共識推動著 AI 奇點的來臨,大模型將重構(gòu)企業(yè)級應(yīng)用,重塑人工智能產(chǎn)業(yè)的發(fā)展方向。Zilliz 表示,未來將持續(xù)聚焦向量數(shù)據(jù)庫行業(yè)發(fā)展的最前沿,以各行各業(yè)的智能化演進為目標,為大模型時代的企業(yè)和開發(fā)者提供最具競爭力的“大模型記憶體”。
審核編輯 黃宇
-
數(shù)據(jù)庫
+關(guān)注
關(guān)注
7文章
3807瀏覽量
64434 -
大模型
+關(guān)注
關(guān)注
2文章
2465瀏覽量
2763
發(fā)布評論請先 登錄
相關(guān)推薦
評論