近兩年來(lái),在英偉達(dá)、高通、AMD、英特爾、華為等科技公司加速布局的戰(zhàn)略規(guī)劃下,芯片領(lǐng)域競(jìng)爭(zhēng)愈演愈烈。如今隨著人工智能時(shí)代的到來(lái),再次為芯片市場(chǎng)激發(fā)新的活力,而與此同時(shí),這意味著新一輪的芯片大戰(zhàn)也即將開(kāi)啟。
其中,本就為芯片巨頭之一的英特爾在面對(duì)一眾挑戰(zhàn)者之際,不僅接連收購(gòu)了現(xiàn)場(chǎng)可編程門(mén)陣列的制造商 Altera、Nervana、AI 模型套件的創(chuàng)業(yè)公司 Vertex.ai,還在以 AI 加速的光子電路和光學(xué)芯片方面展開(kāi)了積極的探索。
顯而易見(jiàn),對(duì)于英特爾而言,AI 芯片業(yè)務(wù)才是它的未來(lái)。
以下為譯文:
AI芯片業(yè)務(wù)才是英特爾的未來(lái)。去年,英特爾的AI芯片部門(mén)創(chuàng)收高達(dá)10億美元,英特爾預(yù)計(jì)這一市場(chǎng)還會(huì)以每年30%的速度增長(zhǎng),有望從2017年的25億美元增長(zhǎng)到2022年的100億美元。如此看來(lái),英特爾目前以數(shù)據(jù)為中心的收入占到了其所有部門(mén)所有業(yè)務(wù)的一半,比5年前上漲了大約1/3。
但盡管如此,英偉達(dá)(Nvidia)、高通、邁威爾(Marvell)和AMD等公司帶來(lái)的競(jìng)爭(zhēng)也日益加??;Hailo科技公司、Graphcore、Wave Computing、Esperanto和Quadric等創(chuàng)業(yè)公司也加入了這場(chǎng)角逐;甚至連亞馬遜也有可能威脅到英特爾的收益,因此,英特爾并沒(méi)沒(méi)有滿足于自己的成就。2015年,英特爾先是收購(gòu)了現(xiàn)場(chǎng)可編程門(mén)陣列(Field Programmable Gate Array,簡(jiǎn)稱FPGA)的制造商Altera,一年后又收購(gòu)了Nervana,填補(bǔ)了其硬件平臺(tái)產(chǎn)品的空缺,為全新一代AI加速器芯片組奠定了基礎(chǔ)。去年8月,英特爾又拿下了Vertex.ai——這是一家開(kāi)發(fā)平臺(tái)無(wú)關(guān)的AI模型套件的創(chuàng)業(yè)公司。
然而,英特爾的野心卻并未止步于此。在近日的采訪中,英特爾副總裁兼架構(gòu)總經(jīng)理Gadi Singer以及與英特爾人工智能產(chǎn)品部門(mén)高級(jí)主管Casimir Wierzynski透露了英特爾在基于光并以AI加速的光子電路和光學(xué)芯片方面的積極探索。
Singer表示:“人工智能硬件是一個(gè)價(jià)值數(shù)十億美元的商機(jī)。我們會(huì)投資幾個(gè)產(chǎn)品線,因?yàn)樵擃I(lǐng)域的需求非常廣泛。其中一些產(chǎn)品(比如加速器等)將側(cè)重于節(jié)能,這是這些產(chǎn)品獨(dú)有的特點(diǎn)。因此,投資這個(gè)領(lǐng)域可以讓我們的投資組合相輔相成。”
軟件
Singer指出,如果硬件上相應(yīng)軟件的開(kāi)發(fā)難度太大,那么硬件將毫無(wú)價(jià)值。因此,英特爾會(huì)絕對(duì)不會(huì)忽視AI領(lǐng)域的軟件生態(tài)系統(tǒng)。
去年4月,英特爾宣布開(kāi)源nGraph——這是一種神經(jīng)網(wǎng)絡(luò)模型編譯器,它能夠在多處理器架構(gòu)上對(duì)匯編代碼進(jìn)行優(yōu)化。大約在同一時(shí)期內(nèi),英特爾還推出了One API,這套工具可以將計(jì)算引擎映射到一系列的處理器、圖形芯片、FPGA以及其他加速器。5月份,英特爾新成立的人工智能實(shí)驗(yàn)室免費(fèi)開(kāi)放了一個(gè)用于自然語(yǔ)言處理的跨平臺(tái)庫(kù)NLP Architect,該庫(kù)可以為聊天助手提供名稱實(shí)體識(shí)別,意圖提取和語(yǔ)義分析等功能,同時(shí)提供相應(yīng)的評(píng)測(cè)。
Singer指出,英特爾已開(kāi)源的工具包遠(yuǎn)不止這些。如今,英特爾還提供了神經(jīng)網(wǎng)絡(luò)壓縮庫(kù)Distiller,這個(gè)庫(kù)可以從AI模型中去除與目標(biāo)任務(wù)無(wú)關(guān)的部分,從而達(dá)到縮小模型的目的。還有一個(gè)增強(qiáng)學(xué)習(xí)框架Coach,可以讓用戶將AI代理嵌入到機(jī)器人和自動(dòng)駕駛車(chē)輛的訓(xùn)練環(huán)境中。
2018年春季,英特爾推出了OpenVINO(Open Visual Inference & Neural Network Optimization,開(kāi)放視覺(jué)推斷及神經(jīng)網(wǎng)絡(luò)優(yōu)化),這是一個(gè)用于AI邊緣計(jì)算開(kāi)發(fā)的工具套件,集成了用于目標(biāo)檢測(cè)、面部識(shí)別以及目標(biāo)跟蹤等一系列預(yù)先訓(xùn)練好的AI模型。這套工具適用于傳統(tǒng)的CPU,(在使用訓(xùn)練好的AI模型進(jìn)行預(yù)測(cè)時(shí))也可以用于FPGA等專門(mén)用于推斷的芯片,目前這套工具已經(jīng)被美國(guó)通用電氣醫(yī)療集團(tuán)等公司用于醫(yī)療成像,還被Dahua等公司用于智能城市服務(wù)。
Singer表示,OpenVINO旨在打造英特爾的計(jì)算機(jī)視覺(jué)軟件開(kāi)發(fā)套件(SDK),這套工具集視頻處理、計(jì)算機(jī)視覺(jué)、機(jī)器學(xué)習(xí)以及流水線優(yōu)化于一身,其使用了Movidius Neural Compute SDK(該SDK中包含一套軟件,用于編譯、配置并檢查機(jī)器學(xué)習(xí)模型)。兩者與英特爾的Movidius神經(jīng)計(jì)算API屬于同一個(gè)系列,目的是為了簡(jiǎn)化C、C++和Python等編程語(yǔ)言的應(yīng)用開(kāi)發(fā)。
其中許多套件都運(yùn)行在英特爾的AI DevCloud中,這是一個(gè)云托管AI模型訓(xùn)練及推斷平臺(tái),其背后是強(qiáng)大的Xeon可擴(kuò)展處理器。DevCloud提供可擴(kuò)展的存儲(chǔ)和計(jì)算資源,因此開(kāi)發(fā)人員能夠針對(duì)硬件(例如Aaeon Technologies等制造商提供的mini-PCIe開(kāi)發(fā)板)遠(yuǎn)程進(jìn)行測(cè)試、優(yōu)化以及模型驗(yàn)證。
隱私
Singer表示,英特爾深知保護(hù)隱私是AI訓(xùn)練以及推斷的重要發(fā)展趨勢(shì)之一,去年年底HE-Transformer的開(kāi)源就是英特爾邁出的重要的第一步。從大的方面來(lái)說(shuō),HE-Transformer是一個(gè)建立在微軟研究院的簡(jiǎn)單加密算法庫(kù)(Simple Encrypted Arithmetic Library,簡(jiǎn)稱SEAL)上的nGraph后端,允許模型對(duì)加密數(shù)據(jù)進(jìn)行操作。
HE-Transformer中“HE”代表“同態(tài)加密”(homomorphic encryption),這種加密形式允許使用算法加密的明文。它生成的加密計(jì)算結(jié)果經(jīng)過(guò)解密后,與針對(duì)未加密文本執(zhí)行的操作結(jié)果完全匹配。
HE-Transformer實(shí)際上是一個(gè)抽象層,該抽象層可應(yīng)用于Google的TensorFlow、Facebook的PyTorch和MXNet等開(kāi)源框架上的神經(jīng)網(wǎng)絡(luò)。
Singer表示:“我們相信安全和隱私極其重要。這實(shí)際上是大規(guī)模機(jī)器學(xué)習(xí)的基本條件。例如,如果你需要獲取多家醫(yī)院的很多患者的信息,那么隱私問(wèn)題就會(huì)變得非常重要。即使你想了解這些人的行為和動(dòng)作,但是如果你無(wú)法保護(hù)他們的隱私,那么他們就不會(huì)允許你訪問(wèn)這些數(shù)據(jù)?!?/p>
在談到英特爾是否會(huì)繼續(xù)開(kāi)發(fā)類似于Google TensorFlow Privacy(這個(gè)庫(kù)采用了一系列統(tǒng)計(jì)技術(shù)來(lái)保證AI模型訓(xùn)練的隱私)的機(jī)器學(xué)習(xí)庫(kù)時(shí),Singer表示相關(guān)的工作正在進(jìn)行中,他說(shuō):“現(xiàn)階段我們還不想討論這個(gè)問(wèn)題,因?yàn)槲覀兊?a href="http://www.wenjunhu.com/v/tag/448/" target="_blank">深度學(xué)習(xí)能力還處于早期階段,但是我們非常有興趣,也愿意投資這方面?!?/p>
加速器與FPGA
絕大多數(shù)AI系統(tǒng)核心的神經(jīng)網(wǎng)絡(luò)的構(gòu)成元素是神經(jīng)元,即近似模擬生物神經(jīng)元而建模的數(shù)學(xué)函數(shù)。這些神經(jīng)元分層排列,它們通過(guò)“突觸”(synapse)連接,將信號(hào)傳遞給其他神經(jīng)元。這些信號(hào)(提供給神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù),或者叫輸入)在層與層之間傳播,并通過(guò)調(diào)整每個(gè)連接的突觸強(qiáng)度(權(quán)重)來(lái)逐步“調(diào)整”網(wǎng)絡(luò)。經(jīng)過(guò)一段時(shí)間后,神經(jīng)網(wǎng)絡(luò)就能從數(shù)據(jù)集中提取特征,并識(shí)別出跨樣本趨勢(shì),最終學(xué)會(huì)預(yù)測(cè)。
神經(jīng)網(wǎng)絡(luò)無(wú)法攝取原始的圖像、視頻、音頻或文本。訓(xùn)練數(shù)據(jù)集的樣本需要經(jīng)過(guò)代數(shù)轉(zhuǎn)換后變成多維數(shù)組,例如標(biāo)量(單個(gè)數(shù)字)、向量(有序的標(biāo)量數(shù)組)以及矩陣(排列成多行多列的標(biāo)量)。還有一種實(shí)體類型叫做張量(tensor),它概括了標(biāo)量、向量和矩陣,并提供了線性變換(或線性關(guān)系)的功能。
例如,一張包含數(shù)百萬(wàn)像素的圖像會(huì)轉(zhuǎn)換成超大的數(shù)字矩陣,而音頻記錄中的單詞和短語(yǔ)可以映射成向量,這種技術(shù)稱為嵌入。
毫無(wú)疑問(wèn),在處理這些統(tǒng)計(jì)操作時(shí),有些硬件的效率更高。一般來(lái)說(shuō),處理器足以處理一些涉及到復(fù)雜順序計(jì)算的推斷和訓(xùn)練,特別是像英特爾第二代Xeon可擴(kuò)展CPU,它結(jié)合了向量神經(jīng)網(wǎng)絡(luò)指令以及名為DL Boost AI的深度學(xué)習(xí)軟件優(yōu)化。因此,英特爾聲稱其第二代Xeon可擴(kuò)展CPU可以將AI工作負(fù)載上的性能提高到2.4倍(這些工作負(fù)載占數(shù)據(jù)中心推斷的60%),同時(shí)可以將推斷工作負(fù)載的性能提高到14倍,其中包括圖像識(shí)別、目標(biāo)檢測(cè)和圖像分割等。英特爾還聲稱其即將推出的10nm Ice Lake 處理器能夠提供比市場(chǎng)上同類產(chǎn)品最多高8.8倍的AI推斷吞吐量。
然而,一些最苛刻的深度學(xué)習(xí)涉及張量操作,而顯卡以及專用集成電路(Application Specific Integrated Circuit,簡(jiǎn)稱ASIC)的芯片更有利于這些操作。這是因?yàn)檫@些芯片包含數(shù)千個(gè)能夠并行執(zhí)行數(shù)百萬(wàn)次數(shù)學(xué)計(jì)算的內(nèi)核。
Singer表示:“盡管CPU對(duì)于推斷非常有效,但是有些情況下需要進(jìn)行張量操作。深度學(xué)習(xí)中最苛刻的任務(wù)需要處理多維數(shù)組,而且還需要進(jìn)行張量上進(jìn)行多種算術(shù)運(yùn)算。從解決方案體系結(jié)構(gòu)的角度來(lái)看,我們應(yīng)該從優(yōu)化軟件和其他硬件功能方面不斷強(qiáng)化CPU,然而僅靠CPU本身并不足以處理所有這類情形。”
英特爾擁有16nm Myriad X VPU這樣的視覺(jué)處理器,它的優(yōu)化圖像信號(hào)處理和推斷設(shè)備具有立體聲模塊,可以處理最高180Hz的雙720p視頻源,還擁有采用硬件編碼的可調(diào)信號(hào)處理器流水線,能夠?qū)?lái)自8個(gè)傳感器的最大4K分辨率的視頻進(jìn)行編碼。此外,它還配備了英特爾的神經(jīng)計(jì)算引擎,這是一種專用的硬件加速器,具有本地 FP16支持和8位定點(diǎn)支持。
英特爾聲稱,這款芯片在全速運(yùn)轉(zhuǎn)時(shí)可以達(dá)到每秒4萬(wàn)億次計(jì)算和每秒1萬(wàn)億次運(yùn)算的專用神經(jīng)網(wǎng)絡(luò)計(jì)算,是其前身(Myriad 2)在深度神經(jīng)網(wǎng)絡(luò)推斷性能的10倍。
FPGA 與專用的加速器不太一樣,因?yàn)樗鼈兊挠布槍?duì)通用的、更廣泛的計(jì)算和數(shù)據(jù)功能。但它們?cè)诳删幊绦苑矫娲_實(shí)有優(yōu)勢(shì),因此開(kāi)發(fā)人員能夠在成品上對(duì)它們進(jìn)行配置和重新配置。這可能是微軟為Project Brain Wave選擇英特爾Stratix 10 FPGA的原因之一,Project Brainwave是一項(xiàng)針對(duì)加速深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練與部署而優(yōu)化的云服務(wù)。
英特爾在Agilex上提供了最先進(jìn)的FPGA解決方案,其最新的10nm嵌入式芯片組旨在解決企業(yè)網(wǎng)絡(luò)和數(shù)據(jù)中心的“以數(shù)據(jù)為中心”的難題。
Agilex產(chǎn)品具有可定制的異構(gòu)3D系統(tǒng)級(jí)封裝,包括模擬、內(nèi)存、計(jì)算和定制 I/O 組件——其中包括 DDR5、 HBM,還有一塊Intel Optane DC。它們得到了英特爾One API的全面支持,并且還提供了遷移到ASIC的解決辦法。
英特爾聲稱,與英特爾老式的14nm Stratix10FPGA相比,Agilex FPGA的性能提高了40%,總功耗則降低了40%,這部分要?dú)w功于他們的第二代 HyperFlex 架構(gòu)。
Nervana
早在2017年,英特爾首次宣布其正在研發(fā)的兩款A(yù)I加速器芯片:一款用于推斷工作負(fù)載,另一款用于訓(xùn)練。今年1月份,英特爾在消費(fèi)電子展(Consumer Electronics Show,簡(jiǎn)稱CES)新聞發(fā)布會(huì)上進(jìn)一步詳細(xì)介紹了這款推斷產(chǎn)品。它被稱為Nervana神經(jīng)網(wǎng)絡(luò)處理器(Nervana Neural Network Processor,即NNP-I),它適用于PCIe插槽(或基于OCP加速器模塊規(guī)格的夾層板),采用10nm工藝制造,并涵蓋了基于英特爾Ice Lake架構(gòu)處理器的一般性操作,以及神經(jīng)網(wǎng)絡(luò)加速。
NNP-I針對(duì)圖像識(shí)別進(jìn)行了優(yōu)化,其架構(gòu)與其他芯片截然不同;它沒(méi)有標(biāo)準(zhǔn)的緩存層次結(jié)構(gòu),其處理器內(nèi)嵌的內(nèi)存由軟件直接管理。Singer表示,由于其高速的芯片內(nèi)外互連,NNP-I 能夠?qū)⑸窠?jīng)網(wǎng)絡(luò)參數(shù)分散到多個(gè)芯片上,從而實(shí)現(xiàn)非常高的并行性。此外,它還使用了一種新的數(shù)字格式—— Flexpoint,這種格式可以提高推斷任務(wù)中至關(guān)重要的標(biāo)量計(jì)算,讓芯片能夠適應(yīng)大型機(jī)器學(xué)習(xí)模型,同時(shí)保持“行業(yè)領(lǐng)先”的功耗。
Singer表示,“圖像可能是最適合加速器的情況,因?yàn)楹芏鄨D像識(shí)別功能都是矩陣乘法?!白匀徽Z(yǔ)言處理和推薦系統(tǒng)需要更多的混合類型的計(jì)算,該CPU核心可以在本地執(zhí)行大量的張量活動(dòng)和 CPU 任務(wù),而無(wú)需將數(shù)據(jù)移出芯片。”
NNP-I的量產(chǎn)仍然任重道遠(yuǎn),但Singer表示,它已經(jīng)在英特爾的實(shí)驗(yàn)室中運(yùn)行了多種拓?fù)浣Y(jié)構(gòu)。他預(yù)計(jì)今年有望投入生產(chǎn),支持Facebook的Glow Compiler——這是一款機(jī)器學(xué)習(xí)編譯器,旨在加速深度學(xué)習(xí)框架的性能。
上述代號(hào)為“Spring Crest”的加速芯片Nervana Neural Net L-1000可能與 NNP-I 一起出現(xiàn)。這種16nm 芯片的24個(gè)計(jì)算集群提供的AI訓(xùn)練性能是同類芯片的10倍,是英特爾首款NNP芯片Lake Crest的3-4倍。
Singer不愿透露更多信息,但他表示,有關(guān)Spring Crest 的更多細(xì)節(jié)將在未來(lái)幾個(gè)月內(nèi)公布。
光子集成電路
根據(jù)英特爾AI產(chǎn)品部門(mén)內(nèi)負(fù)責(zé)硅光子組的Wierzynski所說(shuō),NNP-I和Spring Crest之外的芯片可能與如今的AI加速器芯片截然不同。目前,光子集成電路(光學(xué)芯片的基礎(chǔ))的工作正在進(jìn)行中,與同類電子集成電路相比,光子集成電路有許多優(yōu)點(diǎn)。
Wierzynski表示:“幾年前,麻省理工學(xué)院出版的一篇論文吸引了我的注意。文中提到了在電子產(chǎn)品使用光子。光子具有非常好的特性,它們可以在物質(zhì)中快速移動(dòng),而且你可以通過(guò)一些方式控制光,讓它為你做有意義的事請(qǐng)?!?/p>
Wierzynski指的是總部位于波士頓的光子技術(shù)創(chuàng)業(yè)公司Lightelligence首席執(zhí)行官沈亦晨,與師從麻省理工學(xué)院物理系教授Marin Soljacic的一名光子材料的博士學(xué)生于2017年在《自然光子學(xué)》雜志上發(fā)表的一篇研究論文,文中描述了一種利用光學(xué)干涉實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)工作負(fù)載的新方法。
Wierzynski說(shuō):“加速深度學(xué)習(xí)的關(guān)鍵問(wèn)題之一是,在芯片越來(lái)越小的情況下,如何滿足這種延遲越來(lái)越低的需求?我們?cè)谔魬?zhàn)硅芯片的極限。這說(shuō)明一方面你需要一定的計(jì)算性能,同時(shí)又需要在一定程度上控制功耗?!?/p>
為此,像Lightelligence這樣的光學(xué)芯片只需要有限的能量,因?yàn)楣猱a(chǎn)生的熱量比電少。而且光也不易受環(huán)境溫度、電磁場(chǎng)和其他噪音的影響。
此外,采用光子的設(shè)計(jì)中,延遲比硅材料改善了10,000倍,同時(shí)功耗水平還降低了幾個(gè)數(shù)量級(jí)。在初步的測(cè)試中,與最先進(jìn)的電子芯片相比,某些矩陣矢量乘法運(yùn)算速度提高了100倍。
Wierzynski說(shuō):“我們希望你能夠使用與人們現(xiàn)在使用的AI模型很相近的模型。我們也正在學(xué)習(xí)更多關(guān)于如何大規(guī)模構(gòu)建光子電路的知識(shí)。這聽(tīng)起來(lái)很像《星際迷航》?!?/p>
然而,這并非一件易事。正如Wierzynski所指出的那樣,除了矩陣乘法之外,神經(jīng)網(wǎng)絡(luò)還有第二個(gè)基本特征:非線性。如果沒(méi)有非線性,那么神經(jīng)網(wǎng)絡(luò)只能簡(jiǎn)單地計(jì)算輸入的加權(quán)和,而不能做出預(yù)測(cè)。遺憾的是,關(guān)于在光學(xué)領(lǐng)域中可以執(zhí)行何種非線性操作的問(wèn)題仍然存在。一種可能的解決方案是,在同一芯片上結(jié)合硅和光學(xué)電路的混合方法。Wierzynski表示,神經(jīng)網(wǎng)絡(luò)的一些部分可以采用光學(xué)的方式運(yùn)行,而其余的部分則仍以電子的方式運(yùn)行。
但是,這并不能解決光學(xué)芯片的縮放問(wèn)題。速度非常快的光子電路需要快速的存儲(chǔ)器,而且還需要將所有元件(包括激光器、調(diào)制器和光學(xué)組合器)全部封裝在大約200毫米的晶圓上。
Wierzynski說(shuō):“任何制造過(guò)程中都存在不完善之處,這意味著芯片內(nèi)部和芯片之間會(huì)有細(xì)微的變化,這些會(huì)影響計(jì)算的準(zhǔn)確性?!?/p>
幸運(yùn)的是,他和同事們正在努力尋找解決方案。在最近的一篇論文中,他們描述了在馬赫-曾德?tīng)柛缮鎯x(Mach–Zehnder interferometer,簡(jiǎn)稱MZI)上構(gòu)建AI系統(tǒng)的兩種架構(gòu),MZIs 是一種光子電路,經(jīng)過(guò)設(shè)置后可以在兩束光的相位相關(guān)的量之間執(zhí)行2×2矩陣乘法。
在基準(zhǔn)手寫(xiě)數(shù)字識(shí)別(MNIST)的深度學(xué)習(xí)任務(wù)上,對(duì)這兩種體系結(jié)構(gòu)進(jìn)行模擬訓(xùn)練后,研究人員發(fā)現(xiàn),在雙精度浮點(diǎn)的精度下,GridNet 的準(zhǔn)確度比FFTNet更高(98%對(duì)95%)。重要的是,F(xiàn)FTNet表現(xiàn)出強(qiáng)大的穩(wěn)健性,即使加入了人工噪聲,它的準(zhǔn)確率也從未低于50%。
Wierzynski表示,這項(xiàng)研究為人工智能軟件訓(xùn)練技術(shù)奠定了基礎(chǔ),可以避免在制造后對(duì)光學(xué)芯片進(jìn)行微調(diào),因此省時(shí)省力。
他補(bǔ)充道:“這是英特爾在過(guò)去幾十年中為光電路開(kāi)發(fā)的非常復(fù)雜的制造技術(shù),同時(shí)英特爾也賦予了這種技術(shù)一個(gè)全新的目的。雖然目前這種技術(shù)還處于初期階段,這個(gè)領(lǐng)域內(nèi)還有大量工作需要做,但我已然興奮不已了?!?/p>
-
芯片
+關(guān)注
關(guān)注
456文章
51055瀏覽量
425585 -
英特爾
+關(guān)注
關(guān)注
61文章
9999瀏覽量
172045 -
AI
+關(guān)注
關(guān)注
87文章
31321瀏覽量
269665
原文標(biāo)題:英特爾 AI 芯片業(yè)務(wù)的現(xiàn)狀與未來(lái)
文章出處:【微信號(hào):BIEIqbs,微信公眾號(hào):北京市電子科技情報(bào)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論