0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

你需要知道的11個Torchvision計(jì)算機(jī)視覺數(shù)據(jù)集

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 2023-04-10 16:31 ? 次閱讀

計(jì)算機(jī)視覺是一個顯著增長的領(lǐng)域,有許多實(shí)際應(yīng)用,從自動駕駛汽車到面部識別系統(tǒng)。該領(lǐng)域的主要挑戰(zhàn)之一是獲得高質(zhì)量的數(shù)據(jù)集來訓(xùn)練機(jī)器學(xué)習(xí)模型。

Torchvision作為Pytorch的圖形庫,一直服務(wù)于PyTorch深度學(xué)習(xí)框架,主要用于構(gòu)建計(jì)算機(jī)視覺模型。

為了解決這一挑戰(zhàn),Torchvision提供了訪問預(yù)先構(gòu)建的數(shù)據(jù)集、模型和專門為計(jì)算機(jī)視覺任務(wù)設(shè)計(jì)的轉(zhuǎn)換。此外,Torchvision還支持CPUGPU的加速,使其成為開發(fā)計(jì)算機(jī)視覺應(yīng)用程序的靈活且強(qiáng)大的工具。

什么是“Torchvision數(shù)據(jù)集”?

Torchvision數(shù)據(jù)集是計(jì)算機(jī)視覺中常用的用于開發(fā)和測試機(jī)器學(xué)習(xí)模型的流行數(shù)據(jù)集集合。運(yùn)用Torchvision數(shù)據(jù)集,開發(fā)人員可以在一系列任務(wù)上訓(xùn)練和測試他們的機(jī)器學(xué)習(xí)模型,例如,圖像分類、對象檢測和分割。數(shù)據(jù)集還經(jīng)過預(yù)處理、標(biāo)記并組織成易于加載和使用的格式。

據(jù)了解,Torchvision包由流行的數(shù)據(jù)集、模型體系結(jié)構(gòu)和通用的計(jì)算機(jī)視覺圖像轉(zhuǎn)換組成。簡單地說就是“常用數(shù)據(jù)集+常見模型+常見圖像增強(qiáng)”方法。

Torchvision中的數(shù)據(jù)集共有11種:MNIST、CIFAR-10等,下面具體說說。

Torchvision中的11種數(shù)據(jù)集

MNIST手寫數(shù)字?jǐn)?shù)據(jù)庫

這個Torchvision數(shù)據(jù)集在機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺領(lǐng)域中非常流行和廣泛應(yīng)用。它由7萬張手寫數(shù)字0-9的灰度圖像組成。其中,6萬張用于訓(xùn)練,1萬張用于測試。每張圖像的大小為28×28像素,并有相應(yīng)的標(biāo)簽表示它所代表的數(shù)字。

要訪問此數(shù)據(jù)集,您可以直接從Kaggle下載或使用torchvision加載數(shù)據(jù)集:

importtorchvision.datasetsasdatasets#Loadthetrainingdataset
train_dataset=datasets.MNIST(root='data/',train=True,transform=None,download=True)#Loadthetestingdataset
test_dataset=datasets.MNIST(root='data/',train=False,transform=None,download=True)


左右滑動查看完整代碼

CIFAR-10(廣泛使用的標(biāo)準(zhǔn)數(shù)據(jù)集)

CIFAR-10數(shù)據(jù)集由6萬張32×32彩色圖像組成,分為10個類別,每個類別有6000張圖像,總共有5萬張訓(xùn)練圖像和1萬張測試圖像。這些圖像又分為5個訓(xùn)練批次和一個測試批次,每個批次有1萬張圖像。數(shù)據(jù)集可以從Kaggle下載。

importtorchimporttorchvisionimporttorchvision.transformsastransforms

transform=transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))])

trainset=torchvision.datasets.CIFAR10(root='./data',train=True,
download=True,transform=transform)
testset=torchvision.datasets.CIFAR10(root='./data',train=False,
download=True,transform=transform)

trainloader=torch.utils.data.DataLoader(trainset,batch_size=4,
shuffle=True,num_workers=2)
testloader=torch.utils.data.DataLoader(testset,batch_size=4,
shuffle=False,num_workers=2)
左右滑動查看完整代碼

在此提醒一句,您可以根據(jù)需要調(diào)整數(shù)據(jù)加載器的批處理大小和工作進(jìn)程的數(shù)量。

CIFAR-100(廣泛使用的標(biāo)準(zhǔn)數(shù)據(jù)集)

CIFAR-100數(shù)據(jù)集在100個類中有60,000張(50,000張訓(xùn)練圖像和10,000張測試圖像)32×32的彩色圖像。每個類有600張圖像。這100個類被分成20個超類,用一個細(xì)標(biāo)簽表示它的類,另一個粗標(biāo)簽表示它所屬的超類。

importtorchimporttorchvisionimporttorchvision.transformsastransforms

importtorchvision.datasetsasdatasetsimporttorchvision.transformsastransforms#Definetransformtonormalizedata
transform=transforms.Compose([
transforms.ToTensor(),
transforms.Normalize(mean=[0.5,0.5,0.5],std=[0.5,0.5,0.5])])
#LoadCIFAR-100trainandtestdatasets
trainset=datasets.CIFAR100(root='./data',train=True,download=True,transform=transform)
testset=datasets.CIFAR100(root='./data',train=False,download=True,transform=transform)
#Createdataloadersfortrainandtestdatasets
trainloader=torch.utils.data.DataLoader(trainset,batch_size=64,shuffle=True)
testloader=torch.utils.data.DataLoader(testset,batch_size=64,shuffle=False)
左右滑動查看完整代碼

ImageNet數(shù)據(jù)集

Torchvision中的ImageNet數(shù)據(jù)集包含大約120萬張訓(xùn)練圖像,5萬張驗(yàn)證圖像和10萬張測試圖像。數(shù)據(jù)集中的每張圖像都被標(biāo)記為1000個類別中的一個,如“貓”、“狗”、“汽車”、“飛機(jī)”等。

importtorchvision.datasetsasdatasetsimporttorchvision.transformsastransforms
#SetthepathtotheImageNetdatasetonyourmachine
data_path="/path/to/imagenet"
#CreatetheImageNetdatasetobjectwithcustomoptions
imagenet_train=datasets.ImageNet(
root=data_path,
split='train',
transform=transforms.Compose([
transforms.Resize(256),
transforms.RandomCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485,0.456,0.406],
std=[0.229,0.224,0.225])
]),
download=False)

imagenet_val=datasets.ImageNet(
root=data_path,
split='val',
transform=transforms.Compose([
transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize(
mean=[0.485,0.456,0.406],
std=[0.229,0.224,0.225])
]),
download=False)
#Printthenumberofimagesinthetrainingandvalidationsetsprint("Numberofimagesinthetrainingset:",len(imagenet_train))print("Numberofimagesinthevalidationset:",len(imagenet_val))
左右滑動查看完整代碼

MSCoco數(shù)據(jù)集

Microsoft Common Objects in Context(MS Coco)數(shù)據(jù)集包含32.8萬張日常物體和人類的高質(zhì)量視覺圖像,通常用作實(shí)時物體檢測中比較算法性能的標(biāo)準(zhǔn)。

Fashion-MNIST數(shù)據(jù)集

時尚MNIST數(shù)據(jù)集是由Zalando Research創(chuàng)建的,作為原始MNIST數(shù)據(jù)集的替代品。Fashion MNIST數(shù)據(jù)集由70000張服裝灰度圖像(訓(xùn)練集60000張,測試集10000張)組成。

圖片大小為28×28像素,代表10種不同類別的服裝,包括:t恤/上衣、褲子、套頭衫、連衣裙、外套、涼鞋、襯衫、運(yùn)動鞋、包和短靴。它類似于原始的MNIST數(shù)據(jù)集,但由于服裝項(xiàng)目的復(fù)雜性和多樣性,分類任務(wù)更具挑戰(zhàn)性。這個Torchvision數(shù)據(jù)集可以從Kaggle下載。

importtorchimporttorchvisionimporttorchvision.transformsastransforms
#Definetransformations
transform=transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5,),(0.5,))])#Loadthedataset
trainset=torchvision.datasets.FashionMNIST(root='./data',train=True,
download=True,transform=transform)

testset=torchvision.datasets.FashionMNIST(root='./data',train=False,
download=True,transform=transform)
#Createdataloaders
trainloader=torch.utils.data.DataLoader(trainset,batch_size=4,
shuffle=True,num_workers=2)

testloader=torch.utils.data.DataLoader(testset,batch_size=4,
shuffle=False,num_workers=2)
左右滑動查看完整代碼

SVHN數(shù)據(jù)集



SVHN(街景門牌號)數(shù)據(jù)集是一個來自谷歌街景圖像的圖像數(shù)據(jù)集,它由從街道級圖像中截取的門牌號的裁剪圖像組成。它包含所有門牌號及其包圍框的完整格式和僅包含門牌號的裁剪格式。完整格式通常用于對象檢測任務(wù),而裁剪格式通常用于分類任務(wù)。


SVHN數(shù)據(jù)集也包含在Torchvision包中,它包含了73,257張用于訓(xùn)練的圖像、26,032張用于測試的圖像和531,131張用于額外訓(xùn)練數(shù)據(jù)的額外圖像。

importtorchvisionimporttorch
#Loadthetrainandtestsets
train_set=torchvision.datasets.SVHN(root='./data',split='train',download=True,transform=torchvision.transforms.ToTensor())
test_set=torchvision.datasets.SVHN(root='./data',split='test',download=True,transform=torchvision.transforms.ToTensor())
#Createdataloaders
train_loader=torch.utils.data.DataLoader(train_set,batch_size=64,shuffle=True)
test_loader=torch.utils.data.DataLoader(test_set,batch_size=64,shuffle=False)

左右滑動查看完整代碼

STL-10數(shù)據(jù)集


STL-10數(shù)據(jù)集是一個圖像識別數(shù)據(jù)集,由10個類組成,總共約6000+張圖像。STL-10代表“圖像識別標(biāo)準(zhǔn)訓(xùn)練和測試集-10類”,數(shù)據(jù)集中的10個類是:飛機(jī)、鳥、汽車、貓、鹿、狗、馬、猴子、船、卡車。您可以直接從Kaggle下載數(shù)據(jù)集。

importtorchvision.datasetsasdatasetsimporttorchvision.transformsastransforms
#Definethetransformationtoapplytothedata
transform=transforms.Compose([
transforms.ToTensor(),
#ConvertPILimagetoPyTorchtensor
transforms.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))#Normalizethedata])
#LoadtheSTL-10dataset
train_dataset=datasets.STL10(root='./data',split='train',download=True,transform=transform)
test_dataset=datasets.STL10(root='./data',split='test',download=True,transform=transform)

左右滑動查看完整代碼

CelebA數(shù)據(jù)集




這個Torchvision數(shù)據(jù)集是一個流行的大規(guī)模面部屬性數(shù)據(jù)集,包含超過20萬張名人圖像。2015年,香港中文大學(xué)的研究人員首次發(fā)布了這一數(shù)據(jù)。CelebA中的圖像包含40個面部屬性,如,年齡、頭發(fā)顏色、面部表情和性別。


此外,這些圖片是從互聯(lián)網(wǎng)上檢索到的,涵蓋了廣泛的面部外觀,包括不同的種族、年齡和性別。每個圖像中面部位置的邊界框注釋,以及眼睛、鼻子和嘴巴的5個地標(biāo)點(diǎn)。

importtorchvision.datasetsasdatasetsimporttorchvision.transformsastransforms
transform=transforms.Compose([
transforms.CenterCrop(178),
transforms.Resize(128),
transforms.ToTensor(),
transforms.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))])
celeba_dataset=datasets.CelebA(root='./data',split='train',transform=transform,download=True)

左右滑動查看完整代碼

PASCAL VOC數(shù)據(jù)集




VOC數(shù)據(jù)集(視覺對象類)于2005年作為PASCAL VOC挑戰(zhàn)的一部分首次引入。該挑戰(zhàn)旨在推進(jìn)視覺識別的最新水平。它由20種不同類別的物體組成,包括:動物、交通工具和常見的家用物品。這些圖像中的每一個都標(biāo)注了圖像中物體的位置分類。注釋包括邊界框和像素級分割掩碼。
數(shù)據(jù)集分為兩個主要集:訓(xùn)練集和驗(yàn)證集。

訓(xùn)練集包含大約5000張帶有注釋的圖像,而驗(yàn)證集包含大約5000張沒有注釋的圖像。此外,該數(shù)據(jù)集還包括一個包含大約10,000張圖像的測試集,但該測試集的注釋是不可公開的。

importtorchimporttorchvisionfromtorchvisionimporttransforms
#Definetransformationstoapplytotheimages
transform=transforms.Compose([
transforms.Resize((224,224)),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485,0.456,0.406],std=[0.229,0.224,0.225])])
#Loadthetrainandvalidationdatasets
train_dataset=torchvision.datasets.VOCDetection(root='./data',year='2007',image_set='train',transform=transform)
val_dataset=torchvision.datasets.VOCDetection(root='./data',year='2007',image_set='val',transform=transform)#Createdataloaders
train_loader=torch.utils.data.DataLoader(train_dataset,batch_size=32,shuffle=True)
val_loader=torch.utils.data.DataLoader(val_dataset,batch_size=32,shuffle=False)

左右滑動查看完整代碼

Places365數(shù)據(jù)集



Places365數(shù)據(jù)集是一個大型場景識別數(shù)據(jù)集,擁有超過180萬張圖像,涵蓋365個場景類別。Places365標(biāo)準(zhǔn)數(shù)據(jù)集包含約180萬張圖像,而Places365挑戰(zhàn)數(shù)據(jù)集包含5萬張額外的驗(yàn)證圖像,這些圖像對識別模型更具挑戰(zhàn)性。

importtorchimporttorchvisionfromtorchvisionimporttransforms
#Definetransformationstoapplytotheimages
transform=transforms.Compose([
transforms.Resize((224,224)),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485,0.456,0.406],std=[0.229,0.224,0.225])])
#Loadthetrainandvalidationdatasets
train_dataset=torchvision.datasets.Places365(root='./data',split='train-standard',transform=transform)
val_dataset=torchvision.datasets.Places365(root='./data',split='val',transform=transform)#Createdataloaders
train_loader=torch.utils.data.DataLoader(train_dataset,batch_size=32,shuffle=True)
val_loader=torch.utils.data.DataLoader(val_dataset,batch_size=32,shuffle=False)

左右滑動查看完整代碼

總結(jié)

總之,Torchvision數(shù)據(jù)集通常用于訓(xùn)練和評估機(jī)器學(xué)習(xí)模型,如卷積神經(jīng)網(wǎng)絡(luò)(CNNs)。這些模型通常用于計(jì)算機(jī)視覺應(yīng)用,任何人都可以免費(fèi)下載和使用。本文的主要圖像是通過HackerNoon的AI穩(wěn)定擴(kuò)散模型生成的。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4910

    瀏覽量

    130651
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7628

    瀏覽量

    90169
  • 數(shù)據(jù)庫
    +關(guān)注

    關(guān)注

    7

    文章

    3900

    瀏覽量

    65771
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122477
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13760

原文標(biāo)題:你需要知道的11個Torchvision計(jì)算機(jī)視覺數(shù)據(jù)集

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器視覺計(jì)算機(jī)視覺的關(guān)系簡述

    。計(jì)算機(jī)視覺是一門獨(dú)立的學(xué)科,有著30年左右的歷史,圖像處理、模式識別、人工智能技術(shù)為一體,著重服務(wù)于一幅或多幅圖像的計(jì)算機(jī)分析。機(jī)器視覺
    發(fā)表于 05-13 14:57

    計(jì)算機(jī)視覺/深度學(xué)習(xí)領(lǐng)域常用數(shù)據(jù)匯總

    數(shù)據(jù)。與Imagenet數(shù)據(jù)對應(yīng)的有一享譽(yù)全球的“ImageNet國際計(jì)算機(jī)
    發(fā)表于 08-29 10:36

    自動駕駛系統(tǒng)要完成哪些計(jì)算機(jī)視覺任務(wù)?

    Geiger 的研究主要集中在用于自動駕駛系統(tǒng)的三維視覺理解、分割、重建、材質(zhì)與動作估計(jì)等方面。他主導(dǎo)了自動駕駛領(lǐng)域著名數(shù)據(jù) KITTI 及多項(xiàng)自動駕駛計(jì)算機(jī)
    發(fā)表于 07-30 06:49

    什么是計(jì)算機(jī)視覺看了就知道

    什么是計(jì)算機(jī)視覺
    發(fā)表于 01-11 07:47

    用于計(jì)算機(jī)視覺訓(xùn)練的圖像數(shù)據(jù)介紹

    用于計(jì)算機(jī)視覺訓(xùn)練的圖像數(shù)據(jù)
    發(fā)表于 02-26 07:35

    計(jì)算機(jī)有哪些功能

    一句話概括:計(jì)算機(jī)體系結(jié)構(gòu)講的是計(jì)算機(jī)有哪些功能(包括指令、數(shù)據(jù)類型、存儲器尋址技術(shù)、I/O機(jī)理等等),是抽象的;計(jì)算機(jī)組成原理講的是
    發(fā)表于 07-16 07:45

    介紹深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域四大基本任務(wù)中的應(yīng)用

    有關(guān)計(jì)算機(jī)視覺中分類、定位、檢測、和分割需要知道的一切。
    的頭像 發(fā)表于 01-24 16:25 ?1.1w次閱讀

    計(jì)算機(jī)視覺與機(jī)器視覺區(qū)別

     “計(jì)算機(jī)視覺”,是指用計(jì)算機(jī)實(shí)現(xiàn)人的視覺功能,對客觀世界的三維場景的感知、識別和理解。計(jì)算機(jī)視覺
    的頭像 發(fā)表于 12-08 09:27 ?1.3w次閱讀

    真的了解什么是計(jì)算機(jī)視覺嗎?

    計(jì)算機(jī)視覺和機(jī)器視覺有何區(qū)別?
    的頭像 發(fā)表于 07-10 14:35 ?1.2w次閱讀
    <b class='flag-5'>你</b>真的了解什么是<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>嗎?

    用于計(jì)算機(jī)視覺訓(xùn)練的圖像數(shù)據(jù)

    角度的不同的攝像機(jī)查看圖像或來自醫(yī)療掃描儀的多維數(shù)據(jù)。 ? 用于計(jì)算機(jī)視覺訓(xùn)練的圖像數(shù)據(jù) Labelme:麻省理工學(xué)院
    的頭像 發(fā)表于 12-31 09:33 ?2563次閱讀

    用于計(jì)算機(jī)視覺訓(xùn)練的圖像數(shù)據(jù)

    計(jì)算機(jī)視覺使計(jì)算機(jī)能夠理解圖像和視頻的內(nèi)容。計(jì)算機(jī)視覺的目標(biāo)是使人類視覺系統(tǒng)可以實(shí)現(xiàn)任務(wù)自動化。
    的頭像 發(fā)表于 02-12 16:13 ?1565次閱讀

    機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺的前20圖像數(shù)據(jù)

    計(jì)算機(jī)視覺使計(jì)算機(jī)能夠理解圖像和視頻的內(nèi)容。計(jì)算機(jī)視覺的目標(biāo)是使人類視覺系統(tǒng)可以實(shí)現(xiàn)任務(wù)自動化。
    發(fā)表于 01-28 07:40 ?5次下載
    機(jī)器學(xué)習(xí)和<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>的前20<b class='flag-5'>個</b>圖像<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    淺談計(jì)算機(jī)視覺的無人車感知

    數(shù)據(jù) (5)路面與車道檢測數(shù)據(jù) 3、計(jì)算機(jī)視覺能解決的問題: (1)物體的識別與跟蹤:識別(
    的頭像 發(fā)表于 03-24 15:23 ?1954次閱讀

    計(jì)算機(jī)視覺中的專業(yè)術(shù)語知道哪些?

    計(jì)算機(jī)視覺中存在很多的專業(yè)術(shù)語,如先驗(yàn)知識,語義信息,embedding,head,neck等。
    的頭像 發(fā)表于 06-26 11:22 ?2917次閱讀

    如何區(qū)分計(jì)算機(jī)視覺與其相關(guān)領(lǐng)域 計(jì)算機(jī)視覺運(yùn)行原理

    計(jì)算機(jī)視覺算法并非魔法。它們需要數(shù)據(jù)才能運(yùn)作,輸入數(shù)據(jù)的質(zhì)量決定其性能。有多種不同方法和來源可供收集合適
    發(fā)表于 11-08 10:12 ?711次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品