0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一片欣欣向榮背后,深度學習在計算機視覺領(lǐng)域的瓶頸已至

新機器視覺 ? 來源:知乎 ? 作者:知乎 ? 2021-04-18 10:11 ? 次閱讀

一片欣欣向榮背后,深度學習計算機視覺領(lǐng)域的瓶頸已至。

提出這個觀點的,不是外人,正是計算機視覺奠基者之一,約翰霍普金斯大學教授Alan Yuille,他還是霍金的弟子。

他說,現(xiàn)在做AI不提神經(jīng)網(wǎng)絡(luò),成果都很難發(fā)表了,這不是個好勢頭。

如果人們只追神經(jīng)網(wǎng)絡(luò)的潮流,拋棄所有老方法;如果人們只會刷榜,不去想怎樣應對深度網(wǎng)絡(luò)的局限性,這個領(lǐng)域可能很難有更好的發(fā)展。

面對深度學習的三大瓶頸,Yuille教授給出兩條應對之道:靠組合模型培養(yǎng)泛化能力,用組合數(shù)據(jù)測試潛在的故障。

觀點發(fā)表之后,引發(fā)不少的共鳴。Reddit話題熱度快速超過200,學界業(yè)界的AI科學家們也紛紛在Twitter上轉(zhuǎn)發(fā)。

Reddit網(wǎng)友評論道,以Yuille教授的背景,他比別人更清楚在深度學習在計算機視覺領(lǐng)域現(xiàn)狀如何,為什么出現(xiàn)瓶頸。

深度學習的三大瓶頸

Yuille指出,深度學習雖然優(yōu)于其他技術(shù),但它不是通用的,經(jīng)過數(shù)年的發(fā)展,它的瓶頸已經(jīng)凸顯出來,主要有三個:

需要大量標注數(shù)據(jù)

深度學習能夠?qū)崿F(xiàn)的前提是大量經(jīng)過標注的數(shù)據(jù),這使得計算機視覺領(lǐng)域的研究人員傾向于在數(shù)據(jù)資源豐富的領(lǐng)域搞研究,而不是去重要的領(lǐng)域搞研究。

雖然有一些方法可以減少對數(shù)據(jù)的依賴,比如遷移學習、少樣本學習、無監(jiān)督學習和弱監(jiān)督學習。但是到目前為止,它們的性能還沒法與監(jiān)督學習相比。

過度擬合基準數(shù)據(jù)

深度神經(jīng)網(wǎng)絡(luò)在基準數(shù)據(jù)集上表現(xiàn)很好,但在數(shù)據(jù)集之外的真實世界圖像上,效果就差強人意了。比如下圖就是一個失敗案例。

61050588-9fbb-11eb-8b86-12bb97331649.jpg

一個用ImageNet訓練來識別沙發(fā)的深度神經(jīng)網(wǎng)絡(luò),如果沙發(fā)擺放角度特殊一點,就認不出來了。這是因為,有些角度在ImageNet數(shù)據(jù)集里很少見。

在實際的應用中, 如果深度網(wǎng)絡(luò)有偏差,將會帶來非常嚴重的后果。

要知道,用來訓練自動駕駛系統(tǒng)的數(shù)據(jù)集中,基本上從來沒有坐在路中間的嬰兒。

對圖像變化過度敏感

深度神經(jīng)網(wǎng)絡(luò)對標準的對抗性攻擊很敏感,這些攻擊會對圖像造成人類難以察覺的變化,但可能會改變神經(jīng)網(wǎng)絡(luò)對一個物體的認知。

而且,神經(jīng)網(wǎng)絡(luò)對場景的變化也過于敏感。比如下面的這張圖,在猴子圖片上放了吉他等物體,神經(jīng)網(wǎng)絡(luò)就將猴子識別成了人類,吉他識別成了鳥類。

610da512-9fbb-11eb-8b86-12bb97331649.jpg

背后的原因是,與猴子相比,人類更有可能攜帶吉他,與吉他相比,鳥類更容易出現(xiàn)在叢林中。

這種對場景的過度敏感,原因在于數(shù)據(jù)集的限制。

對于任何一個目標對象,數(shù)據(jù)集中只有有限數(shù)量的場景。在實際的應用中,神經(jīng)網(wǎng)絡(luò)會明顯偏向這些場景。

對于像深度神經(jīng)網(wǎng)絡(luò)這樣數(shù)據(jù)驅(qū)動的方法來說,很難捕捉到各種各樣的場景,以及各種各樣的干擾因素。

想讓深度神經(jīng)網(wǎng)絡(luò)處理所有的問題,似乎需要一個無窮大的數(shù)據(jù)集,這就給訓練和測試數(shù)據(jù)集帶來了巨大的挑戰(zhàn)。

為什么數(shù)據(jù)集會不夠大?

這三大問題,還殺不死深度學習,但它們都是需要警惕的信號。

Yuille說,瓶頸背后的原因,就是一個叫做“組合爆炸”的概念:

就說視覺領(lǐng)域,真實世界的圖像,從組合學觀點來看太大量了。任何一個數(shù)據(jù)集,不管多大,都很難表達出現(xiàn)實的復雜程度。

那么,組合學意義上的大,是個什么概念?

大家想象一下,現(xiàn)在要搭建一個視覺場景:你有一本物體字典,要從字典里選出各種各樣的物體,把它們放到不同的位置上。

說起來容易,但每個人選擇物體、擺放物體的方法都不一樣,搭出的場景數(shù)量是可以指數(shù)增長的。

就算只有一個物體,場景還是能指數(shù)增長。因為,它可以用千奇百怪的方式被遮擋;物體所在的背景也有無窮多種。

人類的話,能夠自然而然適應背景的變化;但深度神經(jīng)網(wǎng)絡(luò)對變化就比較敏感了,也更容易出錯:

6136a3fe-9fbb-11eb-8b86-12bb97331649.jpg

△是的,前面出現(xiàn)過了

也不是所有視覺任務(wù)都會發(fā)生組合爆炸(Combinatorial Explosion) 。

比如,醫(yī)學影像就很適合用深度網(wǎng)絡(luò)來處理,因為背景少有變化:比如,胰腺通常都會靠近十二指腸。

但這樣的應用并不常見,復雜多變的情況在現(xiàn)實中更普遍。如果沒有指數(shù)意義上的大數(shù)據(jù)集,就很難模擬真實情況。

而在有限的數(shù)據(jù)集上訓練/測試出來的模型,會缺乏現(xiàn)實意義:因為數(shù)據(jù)集不夠大,代表不了真實的數(shù)據(jù)分布。

那么,就有兩個新問題需要重視:

1、怎樣在有限的數(shù)據(jù)集里訓練,才能讓AI在復雜的真實世界里也有很好的表現(xiàn)?

2、怎樣在有限的數(shù)據(jù)集里,高效地給算法做測試,才能保證它們承受得了現(xiàn)實里大量數(shù)據(jù)的考驗?

組合爆炸如何應對?

數(shù)據(jù)集是不會指數(shù)型長大的,所以要試試從別的地方突破。

可以訓練一個組合模型,培養(yǎng)泛化能力。也可以用組合數(shù)據(jù)來測試模型,找出容易發(fā)生的故障。

總之,組合是關(guān)鍵。

訓練組合模型

組合性 (Compositionality) 是指,一個復雜的表達,它的意義可以通過各個組成部分的意義來決定。

這里,一個重要的假設(shè)就是,一個結(jié)構(gòu)是由許多更加基本的子結(jié)構(gòu),分層組成的;背后有一些語法規(guī)則。

這就表示,AI可以從有限的數(shù)據(jù)里,學會那些子結(jié)構(gòu)和語法,再泛化到各種各樣的情景里。

與深度網(wǎng)絡(luò)不同,組合模型 (Compositional Models) 需要結(jié)構(gòu)化的表示方式,才能讓結(jié)構(gòu)和子結(jié)構(gòu)更明確。

組合模型的推斷能力,可以延伸到AI見過的數(shù)據(jù)之外:推理、干預、診斷,以及基于現(xiàn)有知識結(jié)構(gòu)去回答不同的問題。

引用Stuart German的一句話:

The world is compositional or God exists.
世界是組合性的,不然,上帝就是存在的。

雖然,深度神經(jīng)網(wǎng)絡(luò)也有些組合性:高級特征是由低級特征的響應組成的;但在本文所討論的意義上,深度神經(jīng)網(wǎng)絡(luò)并不是組合性的。

組合模型的優(yōu)點已經(jīng)在許多視覺任務(wù)里面體現(xiàn)了:比如2017年登上Science的、用來識別CAPTCHA驗證碼的模型。

還有一些理論上的優(yōu)點,比如可解釋,以及可以生成樣本。這樣一來,研究人員就更加容易發(fā)現(xiàn)錯誤在哪,而不像深度神經(jīng)網(wǎng)絡(luò)是個黑盒,誰也不知道里面發(fā)生了什么。

但要學習組合模型,并不容易。因為這里需要學習所有的組成部分和語法;

還有,如果要通過合成 (Synthesis) 來作分析,就需要有生成模型(Generative Models) 來生成物體和場景結(jié)構(gòu)。

就說圖像識別,除了人臉、字母等等少數(shù)幾種很有規(guī)律的圖案之外,其他物體還很難應付:

61405160-9fbb-11eb-8b86-12bb97331649.jpg

從根本上說,要解決組合爆炸的問題,就要學習3D世界的因果模型(Causal Models) ,以及這些模型是如何生成圖像的。

有關(guān)人類嬰兒的研究顯示,他們是通過搭建因果模型來學習的,而這些模型可以預測他們生活環(huán)境的結(jié)構(gòu)。

對因果關(guān)系的理解,可以把從有限數(shù)據(jù)里學到的知識,有效擴展到新場景里去。

在組合數(shù)據(jù)里測試模型

訓練過后,該測試了。

前面說過,世界那么復雜,而我們只能在有限的數(shù)據(jù)上測試算法。

要處理組合數(shù)據(jù) (Combinatorial Data) ,博弈論是一種重要的方法:它專注于最壞情況(Worst Case) ,而不是平均情況 (Average Case) 。

就像前面討論過的那樣,如果數(shù)據(jù)集沒有覆蓋到問題的組合復雜性,用平均情況討論出的結(jié)果可能缺乏現(xiàn)實意義。

而關(guān)注最壞情況,在許多場景下都是有意義的:比如自動駕駛汽車的算法,比如癌癥診斷的算法。因為在這些場景下,算法故障可能帶來嚴重的后果。

如果,能在低維空間里捕捉到故障模式 (Failure Modes) ,比如立體視覺的危險因子 (Hazard Factors) ,就能用圖形和網(wǎng)格搜索來研究這些故障。

但是對于大多數(shù)視覺任務(wù),特別是那些涉及組合數(shù)據(jù)的任務(wù),通常不會有能找出幾個危險因子、隔離出來單獨研究的簡單情況。

61582358-9fbb-11eb-8b86-12bb97331649.jpg

△對抗攻擊:稍稍改變紋理,只影響AI識別,不影響人類

有種策略,是把標準對抗攻擊(Adversarial Attacks) 的概念擴展到包含非局部結(jié)構(gòu)(Non-Local Structure) ,支持讓圖像或場景發(fā)生變化的復雜運算,比如遮擋,比如改變物體表面的物理性質(zhì),但不要對人類的認知造成重大改變。

把這樣的方法應用到視覺算法上,還是很有挑戰(zhàn)性的。

不過,如果算法是用組合性(Compositional) 的思路來寫,清晰的結(jié)構(gòu)可能會給算法故障檢測帶來很大的幫助。

關(guān)于Alan Yuille

Alan Yuille,目前就職于約翰霍普金斯大學,是認知科學和計算機科學的杰出教授。

1976年,在劍橋大學數(shù)學專業(yè)獲得學士學位。之后師從霍金,在1981年獲得理論物理博士學位。

畢業(yè)之后,轉(zhuǎn)而開拓計算機視覺領(lǐng)域。并先后就職于麻省理工學院的人工智能實驗室,哈佛大學計算機系等等學術(shù)機構(gòu)。

2002年加入UCLA,之后擔任視覺識別與機器學習中心主任,同時也在心理學系,計算機系,精神病學和生物行為學系任客座教授。

2016年,加入約翰霍普金斯大學。

他曾獲得ICCV的最佳論文獎,2012年,擔任計算機視覺頂級會議CVPR的主席,計算機視覺界的奠基人之一。

此外,Alan Yuille也直接影響了中國AI的發(fā)展,其嫡系弟子朱瓏博士學成后,回國創(chuàng)辦了AI公司依圖科技,現(xiàn)在也是中國CV領(lǐng)域最知名的創(chuàng)業(yè)公司之一。

這篇文章中的觀點,出自Yuille在2018年5月發(fā)表的一篇論文,共同作者是他的博士生Chenxi Liu,在今年一月份,他們對這篇論文進行了更新。

61885d2a-9fbb-11eb-8b86-12bb97331649.jpg

因為我對計算機視覺比較熟,就從計算機視覺的角度說一下自己對深度學習瓶頸的看法。

一、深度學習缺乏理論支撐
大多數(shù)文章的idea都是靠直覺提出來的,背后的很少有理論支撐。通過實驗驗證有效的idea,不一定是最優(yōu)方向。就如同最優(yōu)化問題中的sgd一樣,每一個step都是最優(yōu),但從全局來看,卻不是最優(yōu)。

沒有理論支撐的話,計算機視覺領(lǐng)域的進步就如同sgd一樣,雖然有效,但是緩慢;如果有了理論支撐,計算機視覺領(lǐng)域的進步就會像牛頓法一樣,有效且迅猛。

CNN模型本身有很多超參數(shù),比如設(shè)置幾層,每一層設(shè)置幾個filter,每個filter是depth wise還是point wise,還是普通conv,filter的kernel size設(shè)置多大等等。

這些超參數(shù)的組合是一個很大的數(shù)字,如果只靠實驗來驗證,幾乎是不可能完成的。最后只能憑直覺試其中一部分組合,因此現(xiàn)在的CNN模型只能說效果很好,但是絕對還沒達到最優(yōu),無論是效果還是效率。

以效率舉例,現(xiàn)在resnet效果很好,但是計算量太大了,效率不高。然而可以肯定的是resnet的效率可以提高,因為resnet里面肯定有冗余的參數(shù)和冗余的計算,只要我們找到這些冗余的部分,并將其去掉,效率自然提高了。一個最簡單而且大多人會用的方法就是減小各層channel的數(shù)目。

如果一套理論可以估算模型的capacity,一個任務(wù)所需要模型的capacity。那我們面對一個任務(wù)的時候,使用capacity與之匹配的模型,就能使得效果好,效率優(yōu)。

二、領(lǐng)域內(nèi)越來越工程師化思維
因為深度學習本身缺乏理論,深度學習理論是一塊難啃的骨頭,深度學習框架越來越傻瓜化,各種模型網(wǎng)上都有開源實現(xiàn),現(xiàn)在業(yè)內(nèi)很多人都是把深度學習當樂高用。

面對一個任務(wù),把當前最好的幾個模型的開源實現(xiàn)git clone下來,看看這些模型的積木搭建說明書(也就是論文),思考一下哪塊積木可以改一改,積木的順序是否能調(diào)換一樣,加幾個積木能不能讓效果更好,減幾個積木能不能讓效率更高等等。

思考了之后,實驗跑起來,實驗效果不錯,文章發(fā)起來,實驗效果不如預期,重新折騰一遍。

這整個過程非常的工程師化思維,基本就是憑感覺trial and error,深度思考缺位。很少有人去從理論的角度思考模型出了什么問題,針對這個問題,模型應該做哪些改進。

舉一個極端的例子,一個數(shù)據(jù)實際上是一次函數(shù),但是我們卻總二次函數(shù)去擬合,發(fā)現(xiàn)擬合結(jié)果不好,再用三次函數(shù)擬合,三次不行,四次,再不行,就放棄。我們很少思考,這個數(shù)據(jù)是啥分布,針對這樣的分布,有沒有函數(shù)能擬合它,如果有,哪個函數(shù)最合適。

深度學習本應該是一門科學,需要用科學的思維去面對她,這樣才能得到更好的結(jié)果。

三、對抗樣本是深度學習的問題,但不是深度學習的瓶頸
我認為對抗樣本雖然是深度學習的問題,但并不是深度學習的瓶頸。機器學習中也有對抗樣本,機器學習相比深度學習有著更多的理論支撐,依然沒能把對抗樣本的問題解決。

之所以我們覺得對抗樣本是深度學習的瓶頸是因為,圖像很直觀,當我們看到兩張幾乎一樣的圖片,最后深度學習模型給出兩種完全不一樣的分類結(jié)果,這給我們的沖擊很大。

如果修改一個原本類別是A的feature中某個元素的值,然后使得svm的分類改變?yōu)锽,我們會覺得不以為然,“你改變了這個feature中某個元素的值,它的分類結(jié)果改變很正常啊”。

個人認為,當前深度學習的瓶頸,可能在于 scaling。是的,你沒有聽錯。

我們已經(jīng)有海量的數(shù)據(jù),海量的算力,但我們卻難以訓練大型的深度網(wǎng)絡(luò)模型(GB 到 TB 級別的模型),因為 BP 難以大規(guī)模并行化。數(shù)據(jù)并行不夠,用模型并行后加速比就會大打折扣。即使在加入諸多改進后,訓練過程對帶寬的要求仍然太高。

這就是為什么 nVidia 的 DGX-2 只有 16 塊 V100,但就是要賣到 250 萬。因為雖然用少得多的錢就可以湊出相同的總算力,但很難搭出能高效運用如此多張顯卡的機器。

61aabb5e-9fbb-11eb-8b86-12bb97331649.jpg

而且 DGX-2 內(nèi)部的 GPU 也沒有完全互聯(lián):

61f01974-9fbb-11eb-8b86-12bb97331649.jpg

又例如 AlphaGo Zero 的訓練,實際用于訓練的只是很少的 TPU。即使有幾千幾萬張 TPU,也并沒有辦法將他們高效地用于訓練網(wǎng)絡(luò)。

如果什么時候深度學習可以無腦堆機器就能不斷提高訓練速度(就像挖礦可以堆礦機),從而可以用超大規(guī)模的多任務(wù)網(wǎng)絡(luò),學會 PB EB 級別的各類數(shù)據(jù),那么所能實現(xiàn)的效果很可能會是令人驚訝的。

那么我們看現(xiàn)在的帶寬:

https://en.wikipedia.org/wiki/List_of_interface_bit_rates

2011年出了PCI-E 3.0 x16,是 15.75 GB/s,現(xiàn)在消費級電腦還是這水平,4.0還是沒出來,不過可能是因為大家沒動力(游戲?qū)捯鬀]那么高)。

NVLink 2.0是 150 GB/s,對于大型并行化還是完全不夠的。

61f9f354-9fbb-11eb-8b86-12bb97331649.jpg

大家可能會說,帶寬會慢慢提上來的。

很好,那么,這就來到了最奇怪的問題,我想這個問題值得思考:

AI芯片花了這么大力氣還是帶寬受限,那么人腦為何沒有受限于帶寬?

我的想法是:

人腦的并行化做得太好了,因此神經(jīng)元之間只需要kB級的帶寬。值得AI芯片和算法研究者學習。

人腦的學習方法比BP粗糙得多,所以才能這樣大規(guī)模并行化。

人腦的學習方法是去中心化的,個人認為,更接近 energy-based 的方法。

人腦的其它特點,用現(xiàn)在的遷移學習+多任務(wù)學習+持續(xù)學習已經(jīng)可以模仿。

人腦還會用語言輔助思考。如果沒有語言,人腦也很難快速學會復雜的事情。

稍后我還會再進一步寫寫這個問題,歡迎大家探討和指正。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4777

    瀏覽量

    100989
  • 計算機視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1699

    瀏覽量

    46057
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121373

原文標題:深度學習領(lǐng)域有哪些瓶頸?

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【小白入門必看】文讀懂深度學習計算機視覺技術(shù)及學習路線

    、什么是計算機視覺?計算機視覺,其實就是教機器怎么像我們?nèi)?b class='flag-5'>一樣,用攝像頭看看周圍的世界,然后理
    的頭像 發(fā)表于 10-31 17:00 ?498次閱讀
    【小白入門必看】<b class='flag-5'>一</b>文讀懂<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>技術(shù)及<b class='flag-5'>學習</b>路線

    計算機視覺有哪些優(yōu)缺點

    計算機視覺作為人工智能領(lǐng)域個重要分支,旨在使計算機能夠像人類樣理解和解釋圖像和視頻中的信息
    的頭像 發(fā)表于 08-14 09:49 ?1082次閱讀

    計算機視覺的五大技術(shù)

    計算機視覺作為深度學習領(lǐng)域最熱門的研究方向之,其技術(shù)涵蓋了多個方面,為人工智能的發(fā)展開拓了廣闊
    的頭像 發(fā)表于 07-10 18:26 ?1482次閱讀

    計算機視覺的工作原理和應用

    計算機視覺(Computer Vision,簡稱CV)是門跨學科的研究領(lǐng)域,它利用計算機和數(shù)學算法來模擬人類
    的頭像 發(fā)表于 07-10 18:24 ?2198次閱讀

    計算機視覺與人工智能的關(guān)系是什么

    引言 計算機視覺門研究如何使計算機能夠理解和解釋視覺信息的學科。它涉及到圖像處理、模式識別、機器學習
    的頭像 發(fā)表于 07-09 09:25 ?712次閱讀

    計算機視覺與智能感知是干嘛的

    引言 計算機視覺(Computer Vision)是門研究如何使計算機能夠理解和解釋視覺信息的學科。它涉及到圖像處理、模式識別、機器
    的頭像 發(fā)表于 07-09 09:23 ?1010次閱讀

    計算機視覺和機器視覺區(qū)別在哪

    計算機視覺和機器視覺是兩個密切相關(guān)但又有明顯區(qū)別的領(lǐng)域。 、定義 計算機
    的頭像 發(fā)表于 07-09 09:22 ?499次閱讀

    計算機視覺人工智能領(lǐng)域有哪些主要應用?

    與分類是計算機視覺的基礎(chǔ)應用之。通過訓練機器學習模型,計算機可以識別和分類各種圖像,如動物、植物、物體等。這種技術(shù)
    的頭像 發(fā)表于 07-09 09:14 ?1541次閱讀

    計算機視覺屬于人工智能嗎

    屬于,計算機視覺是人工智能領(lǐng)域個重要分支。 引言 計算機視覺
    的頭像 發(fā)表于 07-09 09:11 ?1374次閱讀

    計算機視覺怎么給圖像分類

    圖像分類是計算機視覺領(lǐng)域中的項核心任務(wù),其目標是將輸入的圖像自動分配到預定義的類別集合中。這過程涉及圖像的特征提取、特征表示以及分類器的
    的頭像 發(fā)表于 07-08 17:06 ?832次閱讀

    深度學習計算機視覺領(lǐng)域的應用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其中的核心技術(shù)之,已經(jīng)計算機視覺
    的頭像 發(fā)表于 07-01 11:38 ?892次閱讀

    機器視覺計算機視覺的區(qū)別

    人工智能和自動化技術(shù)的快速發(fā)展中,機器視覺(Machine Vision, MV)和計算機視覺(Computer Vision, CV)作為兩個重要的分支
    的頭像 發(fā)表于 06-06 17:24 ?1388次閱讀

    計算機視覺的主要研究方向

    計算機視覺(Computer Vision, CV)作為人工智能領(lǐng)域個重要分支,致力于使計算機能夠像人眼
    的頭像 發(fā)表于 06-06 17:17 ?1050次閱讀

    谷東科技與智譜AI合作推出首個AR+大模型行業(yè)解決方案

    2024年,AR行業(yè)展現(xiàn)出一片欣欣向榮之態(tài)。注冊企業(yè)不斷增加,AR新品不斷上市。
    的頭像 發(fā)表于 05-06 10:12 ?477次閱讀
    谷東科技與智譜AI合作推出首個AR+大模型行業(yè)解決方案

    計算機視覺的十大算法

    隨著科技的不斷發(fā)展,計算機視覺領(lǐng)域也取得了長足的進步。本文將介紹計算機視覺領(lǐng)域的十大算法,包括它
    的頭像 發(fā)表于 02-19 13:26 ?1300次閱讀
    <b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>的十大算法