0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

曠視科技孫劍:云、端、芯上的視覺計算

5b9O_deeplearni ? 來源:未知 ? 作者:胡薇 ? 2018-07-10 08:53 ? 次閱讀

2018 全球人工智能機器人峰會(CCF-GAIR)在深圳召開,峰會由中國計算機學會(CCF)主辦,雷鋒網、香港中文大學(深圳)承辦,得到了深圳市寶安區(qū)政府的大力指導,是國內人工智能和機器人學術界、工業(yè)界及投資界三大領域的頂級交流盛會,旨在打造國內人工智能領域最具實力的跨界交流合作平臺。

孫劍博士在CCF-GAIR現(xiàn)場演講

6 月 30 日,計算機視覺專場舉行,會場現(xiàn)場爆滿,不少聽眾站著聽完了長達數小時的演講。上午場的議題為“計算機視覺前沿與智能視頻”,由香港科技大學 RAM-LAB 主任劉明擔綱主持。在他的串聯(lián)下,ICCV 2011 與 CVPR 2022 大會主席權龍、曠視科技首席科學家孫劍、云從科技聯(lián)合創(chuàng)始人姚志強、臻識科技 CEO 任鵬、云飛勵天首席科學家王孝宇以及商湯聯(lián)合創(chuàng)始人林達華等學界、業(yè)界大咖進行了 6 場深度分享,既有計算機視覺技術的前沿研究動態(tài),也有相關技術落地的具體方向。

曠視科技首席科學家、研究院院長孫劍博士為大家?guī)眍}為 “云、端、芯上的視覺計算”的精彩演講。孫劍認為,計算機視覺簡單講就是使機器能看,曠視科技希望能夠做到“賦能億萬攝像頭”,讓應用在所有領域的攝像頭都具備智能,不管是在云、端還是在芯上。

計算機視覺的發(fā)展史就是研究如何表示圖像的歷史。深度學習流行之前,最好的辦法是基于特征的,從圖像里抽取特征,再進行分析;但是這個方法有兩個大缺點:首先,該方法完成的非線性變換次數非常有限;其二,大多數參數都是人工設計的,包括 Feature。深度神經網絡的辦法彌補了手工設計特征的缺陷,整個非線性變換可以做非常多次,換句話說可以很深,所以特征表示能力非常強,并且可以自動地聯(lián)合訓練所有參數。孫劍博士在微軟時提出 152 層的 ResNet,第一次在 ImageNet 大規(guī)模圖像分類任務上超過了人的能力。

接著,孫劍博士從計算機平臺的角度對出現(xiàn)的各種神經網絡結構進行了分類:GoogleNet、ResNet 在“云”上;MobileNet 以及曠視提出的 ShuffleNet 屬于“端”這一類;BNN、XNOR Net 和曠視提出的 DorefaNet 則是在“芯”上。針對目前分平臺設計相關網絡的現(xiàn)狀,孫劍相信未來會有一個“MetaNet 出現(xiàn),能夠統(tǒng)一解決各個平臺上的神經網絡設計和優(yōu)化問題”。

最后,孫劍簡單介紹了曠視在云、端、芯三個平臺上的計算機視覺應用,包括人臉識別、車輛識別、人臉支付、智慧安防、智慧金融、城市大腦、倉儲物流、新零售等。

以下為孫劍演講全文,雷鋒網進行了不改變原意的編輯。

目前人工智能一般劃分為感知和認知兩塊,這一張圖可以看到計算機視覺在人工智能領域所處的位置,綠色表示技術上有重大突破或者應用落地相對成熟、橙色和黃色表示還需重大突破。

曠視科技成立至今已經 7 年,一直專注于計算機視覺領域。去年,曠視獲得了兩個非常好的榮譽,MIT 評選的 2017 年度十大突破性技術中曠視科技的“刷臉支付技術”榜上有名,這是中國公司的技術第一次獲此殊榮;MIT 也將曠視列為 2017 年度全球五十大最聰明公司的第 11 位。曠視去年也完成了新一輪 4.6 億美金的融資,用于做更好、更深入的研究和商業(yè)落地。

簡單來講,計算機視覺就是讓機器能看。曠視科技自創(chuàng)立就一直在回答“如果機器能自動理解一張圖像或者一段視頻,我們能做什么?”這個問題。當然這么說比較抽象,其實具體講我們想做的是“賦能億萬攝像頭”。日常生活和各個行業(yè)中有很多的攝像頭,比如說手機、安防、工業(yè)、零售、無人車、機器人、家庭、無人機、醫(yī)療、遙感等等。在這些地方,大多攝像頭還沒智能化,我們的使命是使這些攝像頭有智能,不管是在云、端還是在芯片上;我們要構建智能大腦來理解智能攝像頭輸入的大量信息

相對于語音識別來說,計算機視覺應用面非常廣泛。語音識別的輸入和輸出較為單一,核心目標是把一段語音變成一句文字。但計算機視覺系統(tǒng)的輸出要豐富很多,你需要知道圖像/視頻里面的物體、運動、場景,其中有什么人、人的位置、行為、表情、注意力等等。你會在不同行業(yè)或場景中面臨各種各樣不同的任務,這也讓計算機視覺成為一個很大并增長很快的學術領域(今年計算機視覺年會 CVPR 參會人達到近 7000 人),也誕生出眾多的優(yōu)秀創(chuàng)業(yè)公司。

計算機視覺的核心問題包括分類、檢測、分割,分別是對一張圖、一張圖的不同區(qū)域和一張圖的每個像素做識別。另外如果輸入的是視頻,我們還需要利用時間關系做識別;其中最核心的是分類問題,因為它是后面三個任務的核心和基礎。

其實,人工智能一出現(xiàn)時,計算機視覺也誕生了。計算機視覺有一個先驅人物叫 David Marr,他在 80 年代初期提出了 Primal Sketch 方法,以及一個研究計算機視覺的大框架,認為圖像應該先檢測 Edge,然后出 2 ? Dsketch 和 3D 模型。但是 MIT 教授 Marvin Minsky 批評說你這個理論很好,但是忽略了核心問題的研究——如何表述一張圖像。

計算機視覺的早期圖像表示模型是 Part-based,比如人體可以分解成頭、胳膊、腿;人臉可以分解成眉毛、眼睛、鼻子,這樣就可以通過 Part 這種組合式的方法表示物體。如果一個物體有結構,這種組合式方法很合適,但很多自然場景的物體沒有這么強的結構就不合適了。

80 年代,早期的神經網絡也成功運用在人臉和手寫數字識別上,但是僅限于這兩個領域。2001 年有一個叫作 Viola & Jones 的人臉檢測的方法,它先是定義一組 Haar 小波基,然后通過機器學習的方法學習 Harr 小波基的組合來表示圖像。這個方法的好處是引入學習來構造圖像表示,壞處是它限定在這個小波基上,對有結構的物體做得好,對沒有結構的物體就不一定合適了。

大概在 2000 - 2012 年,在深度學習之前最流行的表示是 Local Feature-based。該方法從一張圖片里面抽取數百個 Feature,去人工形成一些諸如 SIFT/HOG 的 Descriptor,編碼獲得高維向量之后,再送給 SVM 分類器,這是深度學習之前最好的方法。

對人臉也類似。我以前的研究組也用同樣方法做過人臉關鍵點抽取,獲得高維 Feature,這也是當時最好的人臉識別方式,但是它有兩個大缺點:第一,這個方法整體上是從輸入向量到另外高維向量的非線性變換,這個向量的變換次數是有限的,如果真正算它的非線性變換也就三、四次,變多了是不行的,性能不會提高;第二,其中大多數參數是人工設計的,包括 Feature,但人設計復雜系統(tǒng)的能力是有限的。

今天的主流方法是深度神經網絡,這兩個特性就被改變了,整個非線性變換非常長,可以做非常多次,所以系統(tǒng)的表示能力非常強;第二是所有的參數聯(lián)合訓練。這兩點讓深度神經網絡真正能夠取得非常好的效果,也包括當時我們在微軟提出的 152 層的殘差網絡 ResNet,第一次在 ImageNet 上超過了人的性能。

ResNet 為什么能夠工作呢?到今天也沒有一個明確答案,當然有很多解釋。最直觀的解釋是說當你的非線性變換層數非常多,相鄰兩層變換的差別就非常小,與其直接學習這個映射,不如學習映射的變化,這樣的方式就讓整個學習過程,特別是訓練優(yōu)化過程變得更容易。

還有一個解釋來自該論文(Kaiming He,Xiangyu Zhang,Shaoqing Ren,Jian Sun. Deep Residual Learning For Image Recognition. CVPR 2016.)的第二作者張祥雨,他認為 ResNet 的整個學習過程是一個由淺到深的動態(tài)過程,在訓練初期等效訓練一個淺層網絡,在訓練后期等效訓練一個深層網絡。

論文第一作者何愷明有另外一個更“科學”的解釋,他認為整個訓練過程相當于深度學習的梯度下降過程中,最為困難的梯度消失問題被 ResNet 解決了,該解釋也發(fā)表在 ECCV 2016 的一篇論文(Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Identity Mapping in Deep Residual Networks. ECCV 2016.)中,并在該論文中第一次訓練了一個 1001 層的神經網絡。

還有一些同行提出的解釋。一種是把 ResNet 和 RNN 關聯(lián)起來,認為如果有 Weight Share, ResNet 可以看作是一種 RNN。還有一種解釋把 ResNet 看成是指數多個不同深度網絡的集成。用“集成”這個詞其實有些問題,因為一般我們做集成算法不聯(lián)合訓練,但這里面整個 ResNet 里指數多個網絡是聯(lián)合訓練的,所以很難定義它是不是集成。

我個人比較認同的一種解釋是 Iterative Refinement,它是說網絡初期的層學習表示,后期很多層不斷迭代和 Refine 這個表示。這跟人理解看圖識字很相似,一個不容易理解的東西你要看一會,是基于當前一些已看內容的理解,反復看才能看懂。

還有從從優(yōu)化觀點的解釋,如果不用 ResNet 這種構造,系統(tǒng)的損失函數會非??涌油萃莺透叩筒黄?,所以很難優(yōu)化。我們知道整個網絡訓練是非凸的優(yōu)化問題,如果是這種不光滑的損失函數,訓練很難跳出局部極小;如果是上圖右邊使用 ResNet 的情況,就可以比較容易地達一個很好的局部極小。最近研究表明,局部極小區(qū)域的面積和平坦性和一個方法的推廣能力非常強相關。

多層 ResNet 學習高度非線性映射的能力非常強。去年,ResNet 成功應用于 DeepMind 的 AlphaGo Zero 系統(tǒng)中,用 一個40 或 80 層的網絡就可以學到從棋盤圖像到落子位置這樣一個高度復雜的映射,這非常讓人吃驚。

2012 年開始有各種各樣的神經網絡結構出現(xiàn)。如果從計算平臺的角度看這些工作,大概可以分成三類:第一類是在“云”上,像 GoogleNet、ResNet,其目標是向著最高精度方向走,有 GPU、TPU 可以訓練非常大的模型,來探知我們的認知邊界;第二類平臺是在“端”上,特別是一些嵌入式設備,這些設備上的計算能力,內存訪問都有限制,但很多真實的場景就是如此,那你怎么去做這上面的研究工作呢?谷歌在去年提出 MobileNet 運行在移動端設備上,曠視科技去年提出 ShuffleNet,其目標是說如何在一個給定計算量的設備上得到最好的效果。

一個網絡的最基本結構是多個 3×3 的卷積,ResNet 加了一個跳轉連接,我們在 ResNet 中還引入一個 Bottleneck 結構,先做 1×1,再做 3×3,再回到 1×1,這樣可以提高卷積的效率。

去年何愷明有一項工作叫 ResNeXt,它在 3x3 的基礎上引入分組卷積的方法,可以很好地提高卷積的有效性;谷歌的 MobileNet 是一個 3x3 分層卷積的方式,每個層各卷各的,這種方式非常有效,特別是在低端設備上。ShuffleNet 結合分組卷積和分層卷積的思想,對 1×1 Conv 分組;但是如果只分組的話,組間的信息不會交換,這樣會影響特征學習,因此我們通過引入 Shuffle 操作,讓不同分組的信息更好地交換,然后做 3×3 的分層卷積,再回到 1×1 分組卷積,這就是 ShuffleNet 的核心思想。和其它方法相比,在相同的精度下,ShuffleNet 在真實設備上的速度要比 AlexNet 快 20 倍左右。

這是我們去年專為手機設計的 ShuffleNet,它在 CPU/ARM 上效果非常好;如果在 GPU 上,它的性能并不好,因為 CPU 和 GPU 的特性不太一樣,這里面有很多原因,比如卷積的設計,Group 卷積等等,我就不贅述了。

今年我們設計了 ShuffleNet v2,也就是第二版,拋棄分組卷積的思想,引入 Channel Split 和 Channel Shuffle 組合的新方法。這個方法把 Channel 先一分為二,并把每個分支用非常簡單的結構來做,然后在用 Shuffle 操作合并 Channel,這樣做的根源是我們在網絡設計中發(fā)現(xiàn)的一些基本指導原則,比如說我們需要平衡的卷積而不是稀疏的卷積,更加規(guī)整的卷積而不是零亂的卷積。

這項工作目前在 CPU 和 GPU 上都獲得了最好的精度和速度;不光在小模型,在大模型上同樣取得了非常好的效果,上圖最后一行是說 ShuffleNet v2 目前在計算量只有 12.7G Flops 情況下在 ImageNet 上取得了非常高的精度。

我們還需要將神經網絡運行在芯片上,這不光對網絡結構設計有要求,還要對網絡內部精度的表示做限制,現(xiàn)在最流行的方法是做低精度化,比如 BNN 和 XNOR Net,還有曠視科技提出的 DorefaNet。低精度方法是指神經網絡的權重或激活值用低精度表示,比如 1 位,2 位,4 位。如果可以用低精度表示兩個向量,那么卷積計算就可以通過芯片上非常簡單的位運算完成計算。

我們提出的 DorefaNet 是第一個對梯度也做量化的研究工作,從而可以讓我們在 FPGA 甚至 ASIC 上訓練。在這些設備上計算量是一方面,但是它的內存訪問限制更大,DorefaNet 這種方法可以做到更好。上圖是我們在 ImageNet 上得到的 1 位,2 位,4 位和 6 位量化精度下的最好分類結果。

上述分類問題網絡設計需要考慮不同的平臺,其它問題多是以分類為基礎,比如說檢測,上圖是檢測最近幾年的發(fā)展路程,從 R-CNN 到我們提出的 SPP-Net,到 Fast R-CNN,再到我們提出的 Faster R-CNN,它們都是先應用基礎分類網絡,然后構建不同的物體檢測框架。

檢測方面的目前最有權威性的競賽是 COCO,檢測精度用 mAP 來表示,越高越好。2015 年我們在微軟亞洲研究院用 ResNet 做到了 37.3,曠視研究院去年參加了這個競賽,取得第一名的成績 52.5(滿分 100 分),又推進了一大步。我們獲得 COCO 2017 冠軍的論文是 MegDet。COCO 可以對人進行檢測,也可以抽取特征,我們也在研究后者的工作(Yilun Chen, Zhicheng Wang, Yuxiang Peng, Zhiqiang Zhang, Gang Yu, Jian Sun.Cascaded Pyramid Network for Multi-Person Pose Estimation.CVPR 2018.),提取人體骨架,通過骨架表示人體運動,進行行為分析,這樣比直接分析圖片進行行為訓練更為有效。

最后介紹一些我們做的基于云、端、芯上的商業(yè)應用。

在云上,曠視科技最早推出了面向開發(fā)者的 www.faceplusplus.com 的 AI 云服務。第二個云服務產品是 www.FaceID.com,這是目前最大的在線身份認證平臺,為互聯(lián)網金融、銀行、出行等行業(yè)提供在線身份認證服務。第三個非常大的云服務產品是城市大腦,它的核心是通過很多的傳感器,獲取大量信息,最后做出決策。視覺是目前最大的一個感知方式,因為中國有非常多的攝像頭,通過賦能這些視覺傳感器,我們可以知道人和車的屬性,了解交通和地域情況。其中一個很重要的應用是公共安防,即如何用賦能億萬攝像頭來協(xié)助城市安全和高效運轉。

在端上的應用更多,第一個就是手機。vivo V7 是第一款海外上市旗艦機,搭載了我們的人臉解鎖技術,還有小米 Note 3 的人臉解鎖。我們幫助 vivo 和小米在 iPhoneX 發(fā)布之前推出了人臉解鎖手機。華為榮耀 V10 和 7C 手機同樣使用了我們的技術。華為為什么請孫楊做代言人?因為他長期游泳,指紋已經磨光了,必須用人臉解鎖才能很好地使用手機。

不光是人臉解鎖,還包括人臉 AI 相機的場景識別,實時知道你在拍什么,更好地調節(jié)相機參數,還可以做人臉三維重建,自動實現(xiàn) 3D 光效。另外一個很有趣的應用是深圳和杭州的肯德基旗艦店,消費者可以直接刷臉點餐,這些圖是我在現(xiàn)場刷臉支付喝到一杯果汁的過程。第二個是新零售,借助圖像感知系統(tǒng),能把線下的人、貨、場的過程數字化。線上零售是數字化的,可以根據數字化的用戶統(tǒng)計信息或者個人信息做用戶畫像、大數據分析,幫助提升新零售效率。我們在線下零售,需要用圖像感知來做數字化。

最后是芯片。我們去年在安防展發(fā)布了一款智能人像抓拍機——MegEye-C3S,把 DorefaNet 跑在 FPGA 上,再放到相機里,這是業(yè)界第一款全畫幅(1080p)、全幀率(30fps)人臉實時檢測抓拍機。

再往下應該怎么做呢?今天我們是分平臺,根據平臺的特性設計不同的網絡。我們相信下一代會有一個“MetaNet”,統(tǒng)一解決各個平臺上的神經網絡設計和優(yōu)化的問題。

謝謝大家。

簡介:

孫劍,目前在曠視科技(Face++)擔任首席科學家、曠視研究院院長。孫劍博士2003年畢業(yè)于西安交通大學人工智能與機器人研究所,其主要研究方向是計算攝影學、人臉識別和基于深度學習的圖像理解。

自2002年以在CVPR,ICCV,ECCV,SIGGRAPH,PAMI五個頂級學術會議和期刊上發(fā)表學術論文100+篇,Google Scholar引用20,000+次,H-index 58,兩次獲得CVPR Best Paper Award(2009,2016)。孫劍博士于2010年被美國權威技術期刊MIT Technology Review 評選為“全球35歲以下杰出青年創(chuàng)新者”。孫劍博士帶領的團隊于2015年獲得圖像識別國際大賽五項冠軍(ImageNet分類,檢測和定位,MS COCO檢測和分割),其團隊開發(fā)出來的“深度殘差網絡”和“基于區(qū)域的快速物體檢測”技術已經被廣泛應用在學術和工業(yè)界。同時孫劍帶領的團隊的研究成果也廣泛被應用在微軟Windows,Office,Bing,Azure,Surface,Xbox等多條產品線上。目前孫劍博士正在帶領曠視科技的研究團隊推進計算機視覺技術的進步,和探索其在工業(yè)和商業(yè)上的實踐。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1792

    文章

    47485

    瀏覽量

    239169
  • 計算機視覺
    +關注

    關注

    8

    文章

    1699

    瀏覽量

    46049

原文標題:孫劍:如何打造云、端、芯上的視覺計算 | CCF-GAIR 2018

文章出處:【微信號:deeplearningclass,微信公眾號:深度學習大講堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    什么是計算平臺?搭建計算平臺需要什么條件

    計算平臺是一種以計算技術為基礎的計算服務平臺,用于提供靈活、可擴展、可共享的計算資源和系統(tǒng)服
    的頭像 發(fā)表于 01-09 10:43 ?52次閱讀

    中標北京市大數據中心感知管理服務平臺二期建設項目

    近日,成功中標北京市大數據中心感知管理服務平臺(二期)建設項目,此次中標不僅是對技術實力和服務能力的認可,更標志著
    的頭像 發(fā)表于 12-31 09:20 ?236次閱讀

    機器視覺?|?從缺困境突圍?邁德威降本、提速、創(chuàng)新的三贏局面

    客戶概況:深圳市邁德威科技有限公司(MindVisionTechnologyCo.,Ltd.)成立于2011年,專注于機器視覺和工業(yè)自動化領域,提供高性能的工業(yè)相機及解決方案。公司擁有近500名
    的頭像 發(fā)表于 12-27 11:35 ?163次閱讀
    機器<b class='flag-5'>視覺</b>?|?從缺<b class='flag-5'>芯</b>困境突圍?邁德威<b class='flag-5'>視</b>降本、提速、創(chuàng)新的三贏局面

    亮相2024數字科技生態(tài)大會

    2024數字科技生態(tài)大會上,展示了多項聯(lián)網領域的前沿技術及應用成果,包括大模型、行業(yè)場景方案以及創(chuàng)新智能終端。
    的頭像 發(fā)表于 12-06 10:34 ?283次閱讀

    邊緣計算計算的區(qū)別

    邊緣計算計算是兩種不同的計算模式,它們在計算資源的分布、應用場景和特點存在顯著差異。以下是
    的頭像 發(fā)表于 10-24 14:08 ?481次閱讀

    計算與邊緣計算的結合

    基于互聯(lián)網的計算方式,通過將數據和程序存儲在遠程服務器,用戶可以通過網絡隨時隨地訪問和使用。 計算提供超大規(guī)模存儲、高度可擴展性、低成本和易于協(xié)作等優(yōu)勢,適合需要集中
    的頭像 發(fā)表于 10-24 09:19 ?630次閱讀

    數據輕松——明達Mbox邊緣計算網關

    隨著工業(yè)4.0時代的到來,工廠數字化轉型已成為提升生產效率、優(yōu)化資源配置、增強企業(yè)競爭力的關鍵。明達技術憑借其先進的邊緣計算網關與平臺技術,為工廠提供了高效、穩(wěn)定的數據采集與解決
    的頭像 發(fā)表于 10-18 16:47 ?214次閱讀
    數據輕松<b class='flag-5'>上</b><b class='flag-5'>云</b>——明達Mbox邊緣<b class='flag-5'>計算</b>網關

    重慶兩江新區(qū)與吉利汽車集團、科技簽署合作協(xié)議

    日前,重慶兩江新區(qū)與吉利汽車集團、科技簽署戰(zhàn)略合作協(xié)議。市委書記袁家軍,市委副書記、市長胡衡華會見了吉利控股集團董事長李書福、科技董事長兼CEO印奇一行并見證簽約。
    的頭像 發(fā)表于 09-02 14:13 ?525次閱讀

    如何理解計算?

    計算的工作原理是什么? 計算和傳統(tǒng)IT技術的區(qū)別? 華納如何幫助您實現(xiàn)
    發(fā)表于 08-16 17:02

    奧運看經濟,計算迸發(fā)新活力,華納助力企業(yè)低成本

    奧運看經濟,計算迸發(fā)新活力,華納助力企業(yè)低成本 7月27日凌晨,巴黎奧運會正式拉開帷幕,
    的頭像 發(fā)表于 08-05 16:53 ?308次閱讀

    聚焦物聯(lián)網場景,科技核心技術能力持續(xù)升級

    電子發(fā)燒友網報道(文/李彎彎)最近,上交所顯示,科技有限公司已更新提交相關財務資料。該公司早在2021年3月12日上市申請就獲受理,同年9月9日通過上市委會議,2021年9月30日提交注冊。作為
    的頭像 發(fā)表于 07-25 00:09 ?4234次閱讀

    機器視覺計算視覺有什么區(qū)別

    機器視覺計算視覺是兩個密切相關但又有所區(qū)別的概念。 一、定義 機器視覺 機器視覺,又稱為計算
    的頭像 發(fā)表于 07-16 10:23 ?572次閱讀

    國產計算機平臺——兆

    兼容的微處理器,這讓兆得以開發(fā)X86計算機芯片。 兆堅持自主創(chuàng)新、兼容主流、好用不貴的發(fā)展理念,致力于為用戶提供高效、兼容、安全的自主通用處理器和芯片組產品,構建從到邊再到
    的頭像 發(fā)表于 05-28 10:17 ?1002次閱讀
    國產<b class='flag-5'>計算</b>機平臺——兆<b class='flag-5'>芯</b>

    與樂天國際物流在北京正式簽署戰(zhàn)略合作協(xié)議

    4月17日,與韓國樂天國際物流(LOTTE GLOBAL LOGISTICS)在北京正式簽署戰(zhàn)略合作協(xié)議。
    的頭像 發(fā)表于 04-23 11:52 ?572次閱讀
    <b class='flag-5'>曠</b><b class='flag-5'>視</b>與樂天國際物流在北京正式簽署戰(zhàn)略合作協(xié)議

    科技與上海家化正式簽署《AI科技創(chuàng)新合作框架協(xié)議》

    3月18日,在2024年上海家化“致美·致時代”年度發(fā)布會上,上海家化聯(lián)合股份有限公司與北京科技有限公司正式簽署《AI科技創(chuàng)新合作框架協(xié)議》,雙方將在AI賦能美業(yè)領域進一步展開深度合作,以AI科技推動中國美業(yè)和日化行業(yè)邁入數智化升級的全新階段。
    的頭像 發(fā)表于 03-20 10:21 ?612次閱讀