現(xiàn)在,我們知道立體匹配在實(shí)際應(yīng)用中會(huì)有各種各樣困難的問(wèn)題需要解決,例如之前提到過(guò)的光照、噪聲、鏡面反射、遮擋、重復(fù)紋理、視差不連續(xù)等等導(dǎo)致的匹配錯(cuò)誤或缺失。于是人們就創(chuàng)造了各種各樣的算法來(lái)解決這些問(wèn)題。我們不禁要問(wèn)一個(gè)問(wèn)題:我們?nèi)绾喂降谋容^這些算法的優(yōu)劣呢?這就是我在這篇文章中想要闡述的內(nèi)容。讓我們先從評(píng)價(jià)方法的直覺(jué)理解開(kāi)始,然后進(jìn)入到科學(xué)的部分。
一. 視差結(jié)果的評(píng)價(jià)方法
立體匹配里面提到的最基礎(chǔ)的固定窗口法的匹配結(jié)果:我們可以明顯的看到這個(gè)視差圖中有一些錯(cuò)誤,比如臺(tái)燈支架斷裂了,視差圖上部分區(qū)域是黑色的,還有背景出現(xiàn)不正常的亮區(qū),同時(shí)物體的邊界和原圖的邊界似乎無(wú)法對(duì)應(yīng)上(比如臺(tái)燈燈罩等)。但如何量化的說(shuō)明錯(cuò)誤的量呢?如果能夠?qū)㈠e(cuò)誤量化,似乎就可以公平的比較各個(gè)算法了。我想你也已經(jīng)想到,要想量化錯(cuò)誤,就需要有標(biāo)準(zhǔn)的視差圖作為參考,只需要比較算法的結(jié)果和標(biāo)準(zhǔn)視差圖,并計(jì)算不一樣的像素的比例,就可以進(jìn)行評(píng)價(jià)了。這個(gè)領(lǐng)域的先驅(qū)們也正是這樣做的,其中奠基性的成果就是MiddleBurry大學(xué)的Daniel Scharstein和微軟的Richard Szeliski在2002年發(fā)表的下面這篇文章:作者們提出的第一種評(píng)價(jià)方案是構(gòu)造具有理想視差圖的參考圖像集,并利用下面兩大指標(biāo)來(lái)評(píng)價(jià)各種立體匹配算法的優(yōu)劣:- 均方根誤差(RMS Error),這里N是像素總數(shù)
二. 最早期的測(cè)試圖集(2001年及以前)
在第1節(jié)提到的論文中,作者說(shuō)明了測(cè)試數(shù)據(jù)集的構(gòu)成,這些數(shù)據(jù)集就是MiddleBurry立體匹配數(shù)據(jù)集網(wǎng)站上的2001版數(shù)據(jù)集。第一類:平面場(chǎng)景數(shù)據(jù)集在vision.middlebury.edu/s上,你可以看到作者制作的6組平面場(chǎng)景數(shù)據(jù)。每一組數(shù)據(jù)由9張彩色圖像,和2張理想視差圖構(gòu)成。作者通過(guò)將相機(jī)擺放在水平導(dǎo)軌上,然后通過(guò)移動(dòng)相機(jī)拍攝了這9幅彩色圖像,并進(jìn)行了仔細(xì)的立體校正。而視差圖則是由第3張和第7張圖像進(jìn)行立體匹配,并分別作為參考圖像得到的。這些圖像的尺寸比較小,例如Sawtooth的視差圖尺寸是434x380像素。我們來(lái)看看其中兩組圖像:Sawtooth及Venus。這里第1列是參考圖像,其中作者擺放的都是平面的海報(bào)、繪畫(huà)等,而第2列是對(duì)參考圖像做手動(dòng)標(biāo)記分割為幾個(gè)部分的結(jié)果,屬于同一個(gè)平面的像素被標(biāo)為同樣的顏色。第3列就是理想視差圖。由于現(xiàn)在場(chǎng)景里面都是平面的物體,因此可以通過(guò)特征點(diǎn)匹配的方式計(jì)算穩(wěn)定的匹配點(diǎn)對(duì),再利用平面擬合技術(shù),很準(zhǔn)確的計(jì)算出每個(gè)像素的視差。第二組圖像是從別的數(shù)據(jù)集中獲得的。這里有Tsukuba大學(xué)的著名數(shù)據(jù)"Head and Lamp"。這組數(shù)據(jù)有5x5=25張彩色圖像,在不同視角拍攝。以中間圖像作為參考圖像,人工標(biāo)注了每個(gè)像素的視差,下面展示了其中1張視差圖。另外還有早期由作者之一Szeliski和另外一位先驅(qū)Zabih制作的單色的Map數(shù)據(jù)集,長(zhǎng)下面這個(gè)樣子。這也是1個(gè)平面物體構(gòu)成的場(chǎng)景,所以理想視差圖也用上面提到的平面擬合的方式得到。我們看到,早期的這些數(shù)據(jù)集都比較簡(jiǎn)單,而且數(shù)量有限。大多數(shù)是平面物體構(gòu)成的場(chǎng)景,像Head and Lamp這樣的數(shù)據(jù),雖然由人工標(biāo)注了視差圖,但最大視差值比較小,難度較低。盡管如此,這對(duì)于當(dāng)時(shí)缺乏標(biāo)準(zhǔn)數(shù)據(jù)集的立體匹配研究來(lái)說(shuō),已經(jīng)是一個(gè)里程碑式的事件了。在第一節(jié)開(kāi)篇提到的論文中,作者就是利用這樣的數(shù)據(jù)集和評(píng)價(jià)指標(biāo)進(jìn)行了大量客觀的比較,得出了很多重要的結(jié)論。三. 2003年開(kāi)始,引入結(jié)構(gòu)光技術(shù)
正如上一節(jié)提出的,2001版的數(shù)據(jù)太簡(jiǎn)單了,導(dǎo)致后面一些改進(jìn)后的算法很容易就能匹配上前述數(shù)據(jù)集中大多數(shù)像素,按照現(xiàn)在流行的說(shuō)法:過(guò)擬合了。于是,前面兩位作者采用了新的方法制作更接近真實(shí)場(chǎng)景,更加具有挑戰(zhàn)性的數(shù)據(jù)集。這次的數(shù)據(jù)集主要包括下面兩個(gè)更加復(fù)雜的場(chǎng)景:Cones和Teddy, 你可以看到現(xiàn)在不再是平面目標(biāo)構(gòu)成的場(chǎng)景了,而是具有更加復(fù)雜的表面特征,以及陰影和更多深度不連續(xù)的區(qū)域。不僅如此,此次提供的圖像的尺寸也很大,完整尺寸是1800x1500,另外還提供了900x750及450x375兩種版本。同時(shí),還包括了遮擋區(qū)域、無(wú)紋理區(qū)域、深度不連續(xù)區(qū)域的掩碼圖像,用于各種指標(biāo)的計(jì)算。Cones:Teddy:在2003年CVPR中他們發(fā)表了下面這篇文章,闡述了新數(shù)據(jù)集的制作方法:我們從標(biāo)題就可以看出,這次他們采用了結(jié)構(gòu)光技術(shù)自動(dòng)的計(jì)算出每組圖像的高精度稠密視差圖作為理想?yún)⒖?。下面是他們的?shí)驗(yàn)設(shè)置。這里采用的相機(jī)是Canon G1,它被安裝在水平導(dǎo)軌上,這樣就可以以固定間隔移動(dòng)拍攝不同視角的圖像,對(duì)于同一個(gè)場(chǎng)景作者會(huì)拍攝9個(gè)不同視角的圖像,并用其中第3和第7張來(lái)產(chǎn)生理想視差圖。與此同時(shí),有1個(gè)或多個(gè)投影儀照亮場(chǎng)景。比如在拍攝Cones場(chǎng)景時(shí),就用了1個(gè)投影儀從斜上方照亮場(chǎng)景,這樣大部分區(qū)域都可以照亮,除了畫(huà)面右上方的格子間有一些陰影,由于陰影前方是平面的柵格,所以這些陰影區(qū)域的視差值能夠通過(guò)插值算法恢復(fù)出來(lái)。而在拍攝Teddy場(chǎng)景時(shí),則是采用了兩個(gè)投影儀從不同的方向打光照亮場(chǎng)景,盡量減少陰影。不過(guò),由于Teddy場(chǎng)景更加復(fù)雜,即便是用了兩個(gè)方向的照明,依然會(huì)有少量的區(qū)域位于陰影中(沒(méi)有任何1個(gè)投影儀能照亮),使得這些區(qū)域的視差不可知。這里面,投影儀會(huì)按次序發(fā)出N個(gè)結(jié)構(gòu)光圖像照亮場(chǎng)景,相機(jī)則把這一系列圖像拍攝下來(lái)。注意看論文中的示意圖。這里用到的是一種叫做格雷碼的圖案(Gray-Code),是一種黑白條紋圖案。為了理解作者是如何獲取高精度視差圖的,我們需要先理解下結(jié)構(gòu)光三維重建的原理。這里我用投影儀發(fā)出最簡(jiǎn)單的黑白條紋圖像來(lái)做一點(diǎn)點(diǎn)介紹,之后我會(huì)寫(xiě)更詳細(xì)的文章來(lái)介紹結(jié)構(gòu)光三維重建。我們看下面這個(gè)場(chǎng)景,投影儀向場(chǎng)景按時(shí)間順序投出7個(gè)圖像,并被相機(jī)拍攝下來(lái)。拍下來(lái)的系列圖像是這樣的:我們?cè)跁r(shí)空兩個(gè)維度上觀察接受到的圖像,就會(huì)發(fā)現(xiàn)每個(gè)場(chǎng)景位置處的信息形成了獨(dú)特的編碼。比如上面箭頭所指像素的編碼就是1010010,而且在兩個(gè)視角下對(duì)應(yīng)像素的編碼是一致的,這就給了我們精確尋找兩個(gè)圖像的對(duì)應(yīng)像素的方法——我們只需要尋找相同編碼的像素即可。這里編碼有7位,意味著我們可以為128列像素指定不同的編碼。如果再發(fā)出的是水平條紋,那么可以為128行像素指定不同的編碼。這樣,就可以支撐尺寸為128x128的像素陣列的視差計(jì)算了。如果編碼長(zhǎng)度變?yōu)?0位,那么就可以支持精確計(jì)算出1024x1024的視差圖。現(xiàn)在我們回到Daniel Scharstein和Richard Szeliski的研究,他們確實(shí)是采用了類似原理,通過(guò)發(fā)出水平和垂直的條紋結(jié)構(gòu)光來(lái)精確的尋找兩個(gè)視角下圖像間的對(duì)應(yīng)關(guān)系的。作者用的投影儀是Sony VPL-CX10,投出的圖案是1024x768像素,所以用10位編碼足夠了,也就是投出10個(gè)水平序列圖案和10個(gè)垂直序列圖案。下面展示了其發(fā)出的水平和垂直結(jié)構(gòu)光經(jīng)過(guò)閾值分割后的黑白條紋的狀態(tài)。通過(guò)這種方法,就可以得到精確的視差圖了,作者把此時(shí)得到的視差圖稱為View Disparity。這個(gè)過(guò)程可以圖示如下:你可以看到,View Dispariy中存在大量的黑色像素,這是怎么回事呢?這里主要由這么幾種情況導(dǎo)致:- 遮擋,部分像素只在1個(gè)視角可見(jiàn),在另外1個(gè)視角不可見(jiàn)
- 陰影或反射,導(dǎo)致部分像素的編碼不可靠,使得匹配失敗。
- 在匹配時(shí),因?yàn)橄鄼C(jī)分辨率和投影儀分辨率不一致,因此所需的插值或者混疊導(dǎo)致了一些像素?zé)o法完美匹配,從而在左右一致性檢查時(shí)失敗。
- 同樣,因?yàn)橥队皟x分辨率不足,導(dǎo)致相機(jī)成像時(shí)多個(gè)像素對(duì)應(yīng)同一個(gè)投影儀像素。這可能導(dǎo)致一個(gè)視角下的1個(gè)像素可能和另外一個(gè)視角下多個(gè)像素匹配上,從而在左右一致性檢查時(shí)失敗。
- 還有,就是當(dāng)采用多個(gè)不同的光源方向時(shí),不同光源方向照明時(shí)得到的視差圖不一致。這種不一致的像素也會(huì)被標(biāo)記為黑色像素。
四. 2014年,更加復(fù)雜的制作技術(shù)
前面講的數(shù)據(jù)集在立體匹配的研究中起了非常大的作用,很多重要的方法都是在這時(shí)候的數(shù)據(jù)集上進(jìn)行評(píng)價(jià)和改進(jìn)的。然而,它們的數(shù)量有限,場(chǎng)景有限,人們認(rèn)識(shí)到需要更多更復(fù)雜的場(chǎng)景,來(lái)促進(jìn)立體匹配算法的進(jìn)一步改進(jìn)。于是,2011年到2013年間,MiddleBurry大學(xué)的Nera Nesic, Porter Westling, Xi Wang, York Kitajima, Greg Krathwohl, 以及Daniel Scharstein等人又制作了33組數(shù)據(jù)集,2014年大佬Heiko Hirschmüller完成了對(duì)這批數(shù)據(jù)集的優(yōu)化。他們共同在GCPR2014發(fā)表了下面這篇文章,闡述了這批數(shù)據(jù)集的制作方案:我截取幾組圖像如下,其中很多都是在立體匹配研究中經(jīng)常用到的出名的場(chǎng)景,比如我就特別喜歡圖中那個(gè)鋼琴那么,這次的數(shù)據(jù)集制作方法相比以前的有什么貢獻(xiàn)呢?主要有下面這幾點(diǎn):1. 作者采用的是可移動(dòng)的雙目系統(tǒng),包括兩個(gè)單反相機(jī),兩個(gè)數(shù)碼相機(jī),以及相應(yīng)的導(dǎo)軌和支架構(gòu)成。這樣就可以在實(shí)驗(yàn)室外拍攝更加豐富的場(chǎng)景。所以最后的數(shù)據(jù)集里面就包括了各種各樣豐富的、更加真實(shí)的場(chǎng)景。而且,這次作者的光照條件更加豐富,有4種,而曝光設(shè)置則有8種。為了能夠重現(xiàn)照明情況,還單獨(dú)拍攝了環(huán)境圖像。下面是論文中的一個(gè)示意圖,你可以看到,摩托車表面可能會(huì)有高反射區(qū)域,為了能夠準(zhǔn)確的獲取這些區(qū)域的理想視差圖,作者在車身表面噴涂了特殊的材質(zhì),我想應(yīng)該是為了減少反光,使得匹配能成功。2. 更加復(fù)雜的處理流程,得到高精度的數(shù)據(jù)集:這里我們看到:1. 2003年的方法沒(méi)有很好的處理標(biāo)定和校正帶來(lái)的誤差,事實(shí)上這樣的誤差會(huì)影響到最終生成的理想視差圖的精度。這里的新方案采用了Bundle Adjustment來(lái)減小標(biāo)定和校正的誤差,進(jìn)一步提升了精度。2. 相比2003年的方法,這里采用了更加魯棒的方式來(lái)解碼結(jié)構(gòu)光信息,并用更好的方法來(lái)進(jìn)行2D匹配,這樣就可以更準(zhǔn)確的進(jìn)行立體校正。在采用了這兩個(gè)優(yōu)化點(diǎn)后,立體校正的精度和穩(wěn)定性都提升了很多:3. 前面我們提到了Illumination Disparity(照明視差)很重要,因此這里引入了更好的自校正模塊,可以得到更好的照明視差4. 另外,為了挑戰(zhàn)立體匹配算法在輸入圖沒(méi)有精確rectify的表現(xiàn),這里還輸出了兩種圖集。一種是經(jīng)過(guò)精確rectify的,保證滿足對(duì)極線水平對(duì)齊。另外一種則是沒(méi)有經(jīng)過(guò)精確rectify的,對(duì)算法的挑戰(zhàn)更大。 因?yàn)槠颍揖筒辉敿?xì)暫開(kāi)講解了??傊?,這33組數(shù)據(jù)集中,10組釋放出來(lái)供大家做訓(xùn)練,10組用于測(cè)試(理想視差圖未公開(kāi)),其他的數(shù)據(jù)用于公開(kāi)研究。這些數(shù)據(jù)完整的尺寸甚至達(dá)到了3000x2000,最大視差有達(dá)到800像素的!不僅僅如此,在MiddleBurry官網(wǎng)上還提供了完善的工具,可以加載、評(píng)估、分析這些數(shù)據(jù),可以在此處訪問(wèn):vision.middlebury.edu/s比如其中有個(gè)叫plyv的工具,實(shí)現(xiàn)了視角合成功能,便于我們可以從各個(gè)視角來(lái)觀察場(chǎng)景:五. 2021年,增加用移動(dòng)設(shè)備拍攝的數(shù)據(jù)集
之前的數(shù)據(jù)集都是用單反相機(jī)作為主要成像設(shè)備的,因此圖像的質(zhì)量非常高。2019年到2021年間,Guanghan Pan, Tiansheng Sun, Toby Weed, 和Daniel Scharstein嘗試了用移動(dòng)設(shè)備來(lái)拍攝立體匹配數(shù)據(jù)集。這里他們采用的是蘋果的iPod Touch 6G,它被安裝到一個(gè)機(jī)械臂上,在不同視角下拍攝場(chǎng)景。視差圖的生成還是用了上一章介紹的方法,只不過(guò)做了適當(dāng)?shù)牟眉?。這批數(shù)據(jù)一共24組,每個(gè)場(chǎng)景會(huì)有1到3組數(shù)據(jù),下面是例子:不過(guò)我看這里的視差圖依然是用較大差異的兩視角生成的,對(duì)于當(dāng)今手機(jī)上的小基距雙攝系統(tǒng)來(lái)說(shuō),這個(gè)數(shù)據(jù)集的參考價(jià)值沒(méi)有那么大,畢竟當(dāng)前手機(jī)上的兩個(gè)攝像頭之間基距大概就10mm左右,與這里的情況差距較大。六. 總結(jié)
這篇文章里,我為你介紹了幾種核心的立體匹配評(píng)價(jià)指標(biāo),以及MiddleBurry大學(xué)的幾代立體匹配數(shù)據(jù)集的制作方式。現(xiàn)在做相關(guān)研究的人確實(shí)應(yīng)該感謝包括Daniel Scharstein、Richard Szeliski和Heiko Hirschmüller在內(nèi)的先驅(qū)們,他們創(chuàng)建的MiddleBurry立體匹配數(shù)據(jù)集及評(píng)價(jià)系統(tǒng)極大地推動(dòng)了這個(gè)領(lǐng)域的發(fā)展。到了今年,一些計(jì)算機(jī)視覺(jué)界的頂會(huì)論文依然會(huì)描述自己在MiddleBurry 立體匹配數(shù)據(jù)集上的評(píng)價(jià)結(jié)果。目前排名第1的算法是曠視研究院今年推出的CREStereo,相關(guān)成果也發(fā)表到了CVPR2022,并會(huì)做口頭報(bào)告,我之后如有時(shí)間也會(huì)撰文加以講解。總之,立體匹配算法要繼續(xù)發(fā)展,需要大量符合真實(shí)場(chǎng)景復(fù)雜性的高精度數(shù)據(jù)集,我們學(xué)習(xí)前人的做法,是為了能夠找出更好的方法,制作更多的數(shù)據(jù)。我還會(huì)在接下來(lái)的文章中,給你介紹其他著名的數(shù)據(jù)集,敬請(qǐng)期待。七. 參考資料
1、MiddleBurry雙目數(shù)據(jù)集2、D. Scharstein and R. Szeliski.A taxonomy and evaluation of dense two-frame stereo correspondence algorithms.International Journal of Computer Vision, 47(1/2/3):7-42, April-June 20023、D. Scharstein and R. Szeliski.High-accuracy stereo depth maps using structured light. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2003),volume 1, pages 195-202, Madison, WI, June 2003.4、D. Scharstein and C. Pal.Learning conditional random fields for stereo. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007),Minneapolis, MN, June 2007.5、H. Hirschmüller and D. Scharstein.Evaluation of cost functions for stereo matching. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007),Minneapolis, MN, June 2007.6、D. Scharstein, H. Hirschmüller, Y. Kitajima, G. Krathwohl, N. Nesic, X. Wang, and P. Westling.High-resolution stereo datasets with subpixel-accurate ground truth. InGerman Conference on Pattern Recognition (GCPR 2014), Münster, Germany,September 2014.7、CMU 2021 Fall Computational Photography Course 15-463, Lecture 18
審核編輯 :李倩
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。
舉報(bào)投訴
-
算法
+關(guān)注
關(guān)注
23文章
4612瀏覽量
92910 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1208瀏覽量
24704
原文標(biāo)題:深度解析MiddleBurry立體匹配數(shù)據(jù)集
文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
深度解析研華全棧式AI產(chǎn)品布局
在人工智能邁向邊緣智能化的浪潮中,研華科技通過(guò)“Edge AI+生態(tài)協(xié)同”戰(zhàn)略推動(dòng)AIoT 2.0時(shí)代的產(chǎn)業(yè)落地。本文專訪研華科技產(chǎn)品總監(jiān)邱柏儒,深度解析研華全棧式AI產(chǎn)品布局、差異化技術(shù)積累與生態(tài)共創(chuàng)實(shí)踐。
Bumblebee X 立體相機(jī)提升工業(yè)自動(dòng)化中的立體深度感知
深度感知對(duì)倉(cāng)庫(kù)機(jī)器人應(yīng)用至關(guān)重要,尤其是在自主導(dǎo)航、物品拾取與放置、庫(kù)存管理等方面。通過(guò)將深度感知與各種類型的3D數(shù)據(jù)(如體積數(shù)據(jù)、點(diǎn)云、紋理等)相結(jié)合,倉(cāng)庫(kù)機(jī)器人可以在錯(cuò)綜復(fù)雜環(huán)境中
立體視覺(jué)新手必看:英特爾? 實(shí)感? D421深度相機(jī)模組
英特爾首款一體化立體深度模組,旨在將先進(jìn)的深度感應(yīng)技術(shù)帶給更廣泛的受眾 2024年9月24日?—— 英特爾? 實(shí)感? 技術(shù)再次突破界限,推出全新的英特爾? 實(shí)感? 深度相機(jī)模組D421
深度神經(jīng)網(wǎng)絡(luò)(DNN)架構(gòu)解析與優(yōu)化策略
堆疊多個(gè)隱藏層,逐步提取和轉(zhuǎn)化輸入數(shù)據(jù)的特征,最終實(shí)現(xiàn)復(fù)雜的預(yù)測(cè)和分類任務(wù)。本文將對(duì)DNN的架構(gòu)進(jìn)行詳細(xì)解析,并探討其優(yōu)化策略,以期為相關(guān)研究和應(yīng)用提供參考。
PyTorch如何訓(xùn)練自己的數(shù)據(jù)集
PyTorch是一個(gè)廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動(dòng)態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時(shí),數(shù)據(jù)集是不可或缺的組成部分。然而,很多時(shí)候,我們可能需要使用自己的
ZWS云平臺(tái)應(yīng)用(5)-raw數(shù)據(jù)解析
設(shè)備透?jìng)魃蠄?bào)的原始raw數(shù)據(jù),如何解析成更易讀JSON數(shù)據(jù)格式?傳感器數(shù)據(jù)輸出是二進(jìn)制,這種方式的數(shù)據(jù)量小,傳輸速度快。但二進(jìn)制
請(qǐng)問(wèn)NanoEdge AI數(shù)據(jù)集該如何構(gòu)建?
我想用NanoEdge來(lái)識(shí)別異常的聲音,但我目前沒(méi)有辦法生成模型,我感覺(jué)可能是數(shù)據(jù)集的問(wèn)題,請(qǐng)問(wèn)我該怎么構(gòu)建數(shù)據(jù)集?或者生成模型失敗還會(huì)有哪些原因?
發(fā)表于 05-28 07:27
深度解析電化學(xué)儲(chǔ)能最新官方數(shù)據(jù)
深度解析電化學(xué)儲(chǔ)能最新官方數(shù)據(jù) 近日,中國(guó)電力企業(yè)聯(lián)合會(huì)發(fā)布了《2023年度電化學(xué)儲(chǔ)能電站行業(yè)統(tǒng)計(jì)數(shù)據(jù)》(以下簡(jiǎn)稱“統(tǒng)計(jì)數(shù)據(jù)”),
發(fā)表于 05-20 11:29
?578次閱讀
利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)心電圖降噪
曼濾波。因此,通過(guò)這種方式訓(xùn) 練網(wǎng)絡(luò),無(wú)法獲得比卡爾曼濾波本身更好的 性能。本文介紹了一種利用深度遞歸神經(jīng)網(wǎng)絡(luò) (DRNN)對(duì) ECG 信號(hào)進(jìn)行降噪的新方 法。該網(wǎng)絡(luò)使用兩個(gè)合成數(shù)據(jù)集和一個(gè)真實(shí)
發(fā)表于 05-15 14:42
深度解析深度學(xué)習(xí)下的語(yǔ)義SLAM
隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺(jué)的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測(cè)、識(shí)別和分類等領(lǐng)域。近年來(lái),研究人員開(kāi)始在視覺(jué)SLAM算法中引入深度學(xué)習(xí)技術(shù),使得深度學(xué)習(xí)SLAM系統(tǒng)獲得了迅速發(fā)展,并且比傳統(tǒng)算法展現(xiàn)出更高的精
發(fā)表于 04-23 17:18
?1295次閱讀
機(jī)器學(xué)習(xí)模型偏差與方差詳解
數(shù)據(jù)集的任何變化都將提供一個(gè)不同的估計(jì)值,若使用統(tǒng)計(jì)方法過(guò)度匹配訓(xùn)練數(shù)據(jù)集時(shí),這些估計(jì)值非常準(zhǔn)確。一個(gè)一般規(guī)則是,當(dāng)統(tǒng)計(jì)方法試圖更緊密地
發(fā)表于 03-26 11:18
?1010次閱讀
arcgis空間參考與數(shù)據(jù)框不匹配如何解決
當(dāng)使用ArcGIS軟件進(jìn)行空間數(shù)據(jù)處理時(shí),經(jīng)常會(huì)遇到空間參考與數(shù)據(jù)框不匹配的問(wèn)題。這種不匹配可能導(dǎo)致數(shù)據(jù)顯示不正確,分析結(jié)果不準(zhǔn)確,甚至引發(fā)
XML在HarmonyOS中的生成,解析與轉(zhuǎn)換(下)
一、XML 解析 對(duì)于以 XML 作為載體傳遞的數(shù)據(jù),實(shí)際使用中需要對(duì)相關(guān)的節(jié)點(diǎn)進(jìn)行解析,一般包括解析 XML 標(biāo)簽和標(biāo)簽值、解析 XML
自動(dòng)駕駛領(lǐng)域的數(shù)據(jù)集匯總
發(fā)自動(dòng)駕駛論文哪少的了數(shù)據(jù)集,今天筆者將為大家推薦一篇最新的綜述,總結(jié)了200多個(gè)自動(dòng)駕駛領(lǐng)域的數(shù)據(jù)集,大家堆工作量的時(shí)候也可以找一些小眾的數(shù)據(jù)
評(píng)論