0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

沒有大量訓(xùn)練數(shù)據(jù)時(shí)怎么生成更多的數(shù)據(jù)

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:人工智能遇見磐創(chuàng) ? 2020-05-04 08:59 ? 次閱讀

在圖像和物體識(shí)別方面,計(jì)算機(jī)表現(xiàn)優(yōu)于人類。

像Google和Microsoft這樣的大公司在圖像識(shí)別方面已經(jīng)超越了人類基準(zhǔn)[1,2]。平均而言,人類大約有5%的時(shí)間在圖像識(shí)別任務(wù)上犯了錯(cuò)誤。截至2015年,微軟的圖像識(shí)別軟件的錯(cuò)誤率達(dá)到4.94%,與此同時(shí),谷歌宣布其軟件的錯(cuò)誤率降低到4.8%[3]

這是怎么做到的?

這可以通過在包含數(shù)百個(gè)對(duì)象類別、數(shù)百萬個(gè)訓(xùn)練樣本的ImageNet數(shù)據(jù)集上訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)[1]。

百萬訓(xùn)練數(shù)據(jù)!

例如,要教計(jì)算機(jī)從多個(gè)角度識(shí)別出一只貓貓,可能需要成千上萬張涵蓋不同角度的照片。

成功訓(xùn)練計(jì)算機(jī)視覺任務(wù)的深層卷積神經(jīng)網(wǎng)絡(luò)需要大量數(shù)據(jù)。這是因?yàn)檫@些神經(jīng)網(wǎng)絡(luò)具有多個(gè)隱藏的處理層,并且隨著層數(shù)的增加,需要學(xué)習(xí)的樣本數(shù)也隨之增加。如果沒有足夠的訓(xùn)練數(shù)據(jù),則該模型往往會(huì)很好地學(xué)習(xí)訓(xùn)練數(shù)據(jù),這稱為過度擬合。如果模型過擬合,則其泛化能力很差,因此對(duì)未見的數(shù)據(jù)的表現(xiàn)很差。

但是,如果沒有大量的訓(xùn)練數(shù)據(jù)怎么辦?

對(duì)于我們手頭的所有圖像識(shí)別任務(wù),并不是都會(huì)擁有數(shù)百萬個(gè)訓(xùn)練樣本。對(duì)于某些任務(wù),收集成千上萬個(gè)樣本圖像甚至是一個(gè)挑戰(zhàn)。對(duì)于醫(yī)學(xué)圖像而言通常是這種情況,例如用于乳房癌檢測(cè)和定位的乳房X線照相術(shù),用于肺癌檢測(cè)的胸部X射線或用于定位腦腫瘤的MRI掃描。

這可以歸結(jié)為一個(gè)問題:當(dāng)我們只有有限的數(shù)據(jù)時(shí),我們?nèi)绾斡?xùn)練能夠很好地完成這些任務(wù)的模型?

使用數(shù)據(jù)增強(qiáng)(data augmentation)生成更多訓(xùn)練數(shù)據(jù)

當(dāng)我們只有少量圖像數(shù)據(jù)用于訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)時(shí),我們可以使用數(shù)據(jù)增強(qiáng)技術(shù)從已經(jīng)擁有的圖像數(shù)據(jù)中生成更多訓(xùn)練數(shù)據(jù)。

數(shù)據(jù)增強(qiáng)是一種為原始圖像生成多個(gè)圖像的技術(shù)。有幾種不同的數(shù)據(jù)增強(qiáng)技術(shù),Mikolajczyk和Grochowski在他們的論文中[4]將這些技術(shù)分為兩個(gè)子類別:使用基本圖像處理的數(shù)據(jù)增強(qiáng)和使用深度學(xué)習(xí)方法的數(shù)據(jù)增強(qiáng)。

幾何變換

諸如翻轉(zhuǎn)(Flip),裁剪(Crop),旋轉(zhuǎn)(Rotation)和移位(Translation)之類的幾何變換是一些常用的數(shù)據(jù)增強(qiáng)技術(shù)。我們將在本文中簡要討論它們。

翻轉(zhuǎn)

翻轉(zhuǎn)是取任意給定圖像的鏡像。它是最簡單的增強(qiáng)技術(shù)之一。圖像可以水平或垂直翻轉(zhuǎn)。但是,水平翻轉(zhuǎn)在這兩者之間更為常見。

裁剪

裁剪是一種數(shù)據(jù)增強(qiáng)技術(shù),用于通過裁剪邊界像素來減小原始圖像的大小。裁剪時(shí)不會(huì)保留空間尺寸。在這種類型的數(shù)據(jù)增強(qiáng)中,不能保證轉(zhuǎn)換后的圖像與原始圖像屬于相同的輸出標(biāo)簽。

在上面的圖像中,通過從左右方向裁剪像素,從原始圖像生成了四個(gè)圖像。裁剪圖像的尺寸從256x256減小到227x277。

旋轉(zhuǎn)

圖像可以在軸上向左或向右旋轉(zhuǎn)1到359度。1到20度之間的旋轉(zhuǎn)稱為輕微旋轉(zhuǎn),并且是用于增強(qiáng)原始圖像的有用技術(shù)。隨著旋轉(zhuǎn)度的增加,轉(zhuǎn)換后的數(shù)據(jù)可能無法保留其原始標(biāo)簽。

移位

翻譯是一種將圖像向左,向右,向上或向下平移的技術(shù)。這是一種非常有用的轉(zhuǎn)換技術(shù),可以避免數(shù)據(jù)中的位置偏差。移位圖像時(shí),剩余空間將被填充為0,255或被隨機(jī)噪聲填充,從而保留了圖像的原始大小。

基于GAN的數(shù)據(jù)增強(qiáng)

生成對(duì)抗網(wǎng)絡(luò)(GAN)也稱為GAN,是一種生成建模技術(shù),其中可以從數(shù)據(jù)集中創(chuàng)建人工實(shí)例,從而保留原始集的相似特征[9]。

GAN由兩個(gè)相互競(jìng)爭(zhēng)的人工神經(jīng)網(wǎng)絡(luò)(ANN)組成,即生成器 generator 與判別器 discriminator。生成器創(chuàng)建新的數(shù)據(jù)實(shí)例,而判別器則評(píng)估它們的真實(shí)性[10]。

這是由GAN生成的人臉圖像,這是在人臉上訓(xùn)練出來的。請(qǐng)注意,這些是合成的面孔,而不是真實(shí)的人。

這些是一些數(shù)據(jù)增強(qiáng)技術(shù),通常用于從有限的數(shù)據(jù)集中生成更多數(shù)據(jù),從而可以訓(xùn)練出更有效的卷積神經(jīng)網(wǎng)絡(luò)。

Olaf和他的團(tuán)隊(duì)在訓(xùn)練數(shù)據(jù)有限的情況下,利用在圖像上的平移、旋轉(zhuǎn)和隨機(jī)彈性變換等數(shù)據(jù)增強(qiáng)技術(shù)訓(xùn)練U-net體系結(jié)構(gòu)模型,并在2015年ISBI細(xì)胞追蹤挑戰(zhàn)中以較大優(yōu)勢(shì)獲得這些類別的冠軍。

因此,下次在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)時(shí),請(qǐng)使用這些技術(shù)來創(chuàng)建更多數(shù)據(jù)。

你平時(shí)使用了哪些數(shù)據(jù)增強(qiáng)技術(shù)?在下面評(píng)論分享的想法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7525

    瀏覽量

    88382
  • 圖像識(shí)別
    +關(guān)注

    關(guān)注

    9

    文章

    521

    瀏覽量

    38319
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    英偉達(dá)推出基石世界模型Cosmos,解決智駕與機(jī)器人具身智能訓(xùn)練數(shù)據(jù)問題

    。Cosmos 世界基礎(chǔ)模型(WFM)使開發(fā)者能夠輕松生成大量基于物理學(xué)的逼真合成數(shù)據(jù),以用于訓(xùn)練和評(píng)估其現(xiàn)有的模型。開發(fā)者還可以通過微調(diào) Cosmos WFM 構(gòu)建自定義模型。 為加速機(jī)器人和自動(dòng)駕駛
    的頭像 發(fā)表于 01-14 11:04 ?163次閱讀
    英偉達(dá)推出基石世界模型Cosmos,解決智駕與機(jī)器人具身智能<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>問題

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+數(shù)據(jù)在具身人工智能中的價(jià)值

    熟練程度,但由于其多模態(tài)性質(zhì),訓(xùn)練 EAI 模型需要更多的機(jī)器人數(shù)據(jù)。這些機(jī)器人數(shù)據(jù)包括各種傳感輸入和交互類型,不僅極具挑戰(zhàn)性,而且收集成本高昂。
    發(fā)表于 12-24 00:33

    如何使用OpenUSD構(gòu)建支持生成式AI的合成數(shù)據(jù)工作流

    訓(xùn)練用于驅(qū)動(dòng)自主機(jī)器(例如機(jī)器人和自動(dòng)駕駛汽車)的物理 AI 模型需要大量數(shù)據(jù)。獲取大量多樣化的訓(xùn)練數(shù)據(jù)
    的頭像 發(fā)表于 11-20 09:50 ?316次閱讀
    如何使用OpenUSD構(gòu)建支持<b class='flag-5'>生成</b>式AI的合成<b class='flag-5'>數(shù)據(jù)</b>工作流

    如何訓(xùn)練自己的LLM模型

    于什么任務(wù),比如文本生成、翻譯、問答等。 明確你的模型需要達(dá)到的性能標(biāo)準(zhǔn)。 數(shù)據(jù)收集與處理 : 收集大量的文本數(shù)據(jù),這些數(shù)據(jù)將用于
    的頭像 發(fā)表于 11-08 09:30 ?693次閱讀

    AI大模型的訓(xùn)練數(shù)據(jù)來源分析

    學(xué)術(shù)機(jī)構(gòu)、政府組織或企業(yè)公開發(fā)布,涵蓋了各種類型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :一個(gè)廣泛用于圖像識(shí)別任務(wù)的大規(guī)模圖像數(shù)據(jù)集。 Common Crawl :提供了大量的網(wǎng)頁抓取
    的頭像 發(fā)表于 10-23 15:32 ?901次閱讀

    生成大量獨(dú)立的PWMs

    電子發(fā)燒友網(wǎng)站提供《生成大量獨(dú)立的PWMs.pdf》資料免費(fèi)下載
    發(fā)表于 09-19 10:58 ?0次下載
    <b class='flag-5'>生成大量</b>獨(dú)立的PWMs

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對(duì) NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進(jìn)的指導(dǎo)和獎(jiǎng)勵(lì)模型,以及一個(gè)用于生成式 AI 訓(xùn)練數(shù)據(jù)集。
    的頭像 發(fā)表于 09-06 14:59 ?357次閱讀
    NVIDIA Nemotron-4 340B模型幫助開發(fā)者<b class='flag-5'>生成</b>合成<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>

    TCP傳輸大量數(shù)據(jù)時(shí)丟失數(shù)據(jù)的原因?

    當(dāng)TCP用于傳輸大量數(shù)據(jù)時(shí),要找到數(shù)據(jù)丟失的地方,當(dāng)TCP傳輸大量數(shù)據(jù)時(shí),數(shù)據(jù)包丟失,包錯(cuò)。 具
    發(fā)表于 07-12 15:03

    20個(gè)數(shù)據(jù)可以訓(xùn)練神經(jīng)網(wǎng)絡(luò)嗎

    是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,可以處理各種復(fù)雜的任務(wù),如圖像識(shí)別、自然語言處理和游戲。然而,訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)通常需要大量數(shù)據(jù)。在某些情況下,我們可能只有有限的數(shù)據(jù)可用,例如20個(gè)
    的頭像 發(fā)表于 07-11 10:29 ?1049次閱讀

    pytorch如何訓(xùn)練自己的數(shù)據(jù)

    本文將詳細(xì)介紹如何使用PyTorch框架來訓(xùn)練自己的數(shù)據(jù)。我們將從數(shù)據(jù)準(zhǔn)備、模型構(gòu)建、訓(xùn)練過程、評(píng)估和測(cè)試等方面進(jìn)行講解。 環(huán)境搭建 首先,我們需要安裝PyTorch??梢酝ㄟ^訪問Py
    的頭像 發(fā)表于 07-11 10:04 ?578次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)

    PyTorch是一個(gè)廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動(dòng)態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時(shí),數(shù)據(jù)集是不可或缺的組成部分。然而,很多時(shí)候,我們可能需要使用自己的數(shù)據(jù)集而不是現(xiàn)成
    的頭像 發(fā)表于 07-02 14:09 ?1920次閱讀

    定制化、精細(xì)化、場(chǎng)景化AI訓(xùn)練數(shù)據(jù)趨于基礎(chǔ)數(shù)據(jù)服務(wù)市場(chǎng)主流

    算法、算力和數(shù)據(jù)共同構(gòu)成了AI產(chǎn)業(yè)鏈技術(shù)發(fā)展的三大核心要素。在人工智能行業(yè)發(fā)展進(jìn)程中,有監(jiān)督的深度學(xué)習(xí)算法是推動(dòng)人工智能技術(shù)取得突破性發(fā)展的關(guān)鍵技術(shù)理論,而大量訓(xùn)練數(shù)據(jù)的支撐則是有監(jiān)督
    的頭像 發(fā)表于 06-26 15:01 ?405次閱讀
    定制化、精細(xì)化、場(chǎng)景化AI<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>趨于基礎(chǔ)<b class='flag-5'>數(shù)據(jù)</b>服務(wù)市場(chǎng)主流

    數(shù)據(jù)在軍事訓(xùn)練領(lǐng)域的應(yīng)用有哪些

    量身定制個(gè)性化的訓(xùn)練計(jì)劃。這種基于大數(shù)據(jù)訓(xùn)練計(jì)劃能夠充分發(fā)揮每個(gè)士兵的潛力,提高訓(xùn)練效果。 智慧華盛恒輝實(shí)時(shí)監(jiān)控與反饋: 利用大數(shù)據(jù)技術(shù),
    的頭像 發(fā)表于 06-23 10:21 ?706次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    具有以下三個(gè)非常顯著的特點(diǎn),一個(gè)就是模型參數(shù)規(guī)模更大,訓(xùn)練數(shù)據(jù)更多。當(dāng)然,對(duì)計(jì)算資源的要求也會(huì)更高。 構(gòu)建強(qiáng)大的語言模型時(shí),模型的選型至關(guān)重要,涉及模型的基本架構(gòu),包括模型的主要結(jié)構(gòu),表策策略,激活
    發(fā)表于 05-07 17:10

    DocuSign擬用用戶合同數(shù)據(jù)訓(xùn)練AI,引爭(zhēng)議

    據(jù)了解,DocuSign計(jì)劃借助微軟Azure上的OpenAI工具,如GPT技術(shù),以訓(xùn)練其所謂的“撰寫協(xié)議”模型,并且從用戶提供的大量數(shù)據(jù)中,訓(xùn)練出專屬的人工智能(AI)模型,但這部分
    的頭像 發(fā)表于 03-04 15:45 ?576次閱讀