今天,Google AI再次放出大招,推出一個(gè)專(zhuān)注于機(jī)器學(xué)習(xí)實(shí)踐的“交互式課程”,第一門(mén)是圖像分類(lèi)機(jī)器學(xué)習(xí)實(shí)踐,已有超過(guò)10000名谷歌員工使用這個(gè)教程構(gòu)建了自己的圖像分類(lèi)器。內(nèi)容簡(jiǎn)明易上手,不妨來(lái)試。
幾個(gè)月前,Google AI教育項(xiàng)目放出大福利,將內(nèi)部機(jī)器學(xué)習(xí)速成課程(MLCC)免費(fèi)開(kāi)放給所有人,以幫助更多開(kāi)發(fā)人員學(xué)習(xí)和使用機(jī)器學(xué)習(xí)。
今天,Google AI再次放出大招,推出一個(gè)專(zhuān)注于機(jī)器學(xué)習(xí)實(shí)踐的“交互式課程”。公開(kāi)的第一門(mén)課程是谷歌AI團(tuán)隊(duì)與圖像模型方面的專(zhuān)家合作開(kāi)發(fā)的圖像分類(lèi)機(jī)器學(xué)習(xí)實(shí)踐。
這個(gè)動(dòng)手實(shí)踐課程包含視頻、文檔和交互式編程練習(xí),分步講解谷歌最先進(jìn)的圖像分類(lèi)模型是如何開(kāi)發(fā)出來(lái)的。這一圖像分類(lèi)模型已經(jīng)在Google相冊(cè)的搜索功能中應(yīng)用。迄今為止,已經(jīng)有超過(guò)10000名谷歌員工使用這個(gè)實(shí)踐指南來(lái)訓(xùn)練自己的圖像分類(lèi)器,識(shí)別照片上的貓和狗。
在這個(gè)交互式課程中,首先,你將了解圖像分類(lèi)是如何工作的,學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建模塊。然后,你將從頭開(kāi)始構(gòu)建一個(gè)CNN,了解如何防止過(guò)擬合,并利用預(yù)訓(xùn)練的模型進(jìn)行特征提取和微調(diào)。
機(jī)器學(xué)習(xí)實(shí)踐:圖像分類(lèi)
學(xué)習(xí)本課程,你將了解谷歌state-of-the-art的圖像分類(lèi)模型是如何開(kāi)發(fā)出來(lái)的,該模型被用于在Google Photos中進(jìn)行搜索。這是一個(gè)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的速成課程,在學(xué)習(xí)過(guò)程中,你將自己構(gòu)建一個(gè)圖像分類(lèi)器來(lái)區(qū)分貓的照片和狗的照片。
預(yù)計(jì)完成時(shí)間:90~120 分鐘
先修要求
已學(xué)完谷歌機(jī)器學(xué)習(xí)速成課程,或有機(jī)器學(xué)習(xí)基本原理相關(guān)的經(jīng)驗(yàn)。
精通編程基礎(chǔ)知識(shí),并有一些Python編程的經(jīng)驗(yàn)
在2013年5月,谷歌發(fā)布了對(duì)個(gè)人照片進(jìn)行搜索的功能,用戶(hù)能夠根據(jù)照片中的對(duì)象在自己的相冊(cè)中檢索相應(yīng)的照片。
在相冊(cè)中搜索包含暹邏貓的照片
這一功能后來(lái)在2015年被Google Photos中,被廣泛認(rèn)為具有顛覆性的影響。這證明了計(jì)算機(jī)視覺(jué)軟件可以按照人類(lèi)的標(biāo)準(zhǔn)對(duì)圖像進(jìn)行分類(lèi),其價(jià)值包括:
用戶(hù)不再需要用“beach”之類(lèi)的標(biāo)簽手工地對(duì)照片內(nèi)容進(jìn)行分類(lèi),當(dāng)需要管理幾千張圖片時(shí),這一任務(wù)會(huì)變得非常繁瑣。
用戶(hù)可以用新的方式來(lái)探索他們的相冊(cè),使用搜索詞來(lái)定位他們可能從未標(biāo)記過(guò)的對(duì)象的照片。例如,他們可以搜索“棕櫚樹(shù)”,將所有背景中有棕櫚樹(shù)的度假照片放在一起。
軟件可能會(huì)“看到”用戶(hù)自己可能無(wú)法察覺(jué)的分類(lèi)差別(例如,區(qū)分暹羅貓和阿比西尼亞貓),有效地增加了用戶(hù)的專(zhuān)業(yè)知識(shí)。
圖像分類(lèi)是如何工作的
圖像分類(lèi)是一個(gè)有監(jiān)督的學(xué)習(xí)問(wèn)題:定義一組目標(biāo)類(lèi)(即圖像中需要識(shí)別的對(duì)象),并使用已標(biāo)記的示例照片來(lái)訓(xùn)練一個(gè)模型來(lái)識(shí)別目標(biāo)。早期的計(jì)算機(jī)視覺(jué)模型依賴(lài)于原始的像素?cái)?shù)據(jù)作為模型的輸入。
然而,如下圖所示,僅原始的像素?cái)?shù)據(jù)并不能提供足夠穩(wěn)定的表示,以包含圖像中捕獲的無(wú)數(shù)個(gè)對(duì)象的細(xì)微變化。對(duì)象的位置、對(duì)象背后的背景、周?chē)墓饩€(xiàn)、相機(jī)的角度和相機(jī)的焦點(diǎn)在原始像素?cái)?shù)據(jù)中都可能產(chǎn)生波動(dòng);這些差異是非常重要的,它們不能通過(guò)對(duì)像素RGB值的加權(quán)平均來(lái)校正。
左:不同姿勢(shì)、不同背景和光照條件的照片中,貓都可以被識(shí)別出來(lái);右:用平均像素?cái)?shù)據(jù)來(lái)解釋這種變化無(wú)法產(chǎn)生任何有意義的信息
為了更靈活地對(duì)對(duì)象進(jìn)行建模,經(jīng)典的計(jì)算機(jī)視覺(jué)模型添加了來(lái)自像素?cái)?shù)據(jù)的新特性,比如顏色直方圖、紋理和形狀。但這種方法的缺點(diǎn)是使特性工程變成了一種負(fù)擔(dān),因?yàn)樾枰{(diào)整的輸入太多了。比如對(duì)于一個(gè)貓的分類(lèi)器,哪種顏色最重要?形狀的定義靈活度應(yīng)該多大?由于特征需要非常精確地調(diào)整,構(gòu)建一個(gè)穩(wěn)定的模型非常具有挑戰(zhàn)性,而且模型精度也會(huì)受到影響。
卷積神經(jīng)網(wǎng)絡(luò)
構(gòu)建圖像分類(lèi)模型的一個(gè)突破是發(fā)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN)可以用來(lái)逐步地提取圖像內(nèi)容的更高層的表示。CNN不是預(yù)先處理數(shù)據(jù)以獲得紋理、形狀等特征,而是將圖像的原始像素?cái)?shù)據(jù)作為輸入,并“學(xué)習(xí)”如何提取這些特征,最終推斷它們構(gòu)成的對(duì)象。
首先,CNN接受到一個(gè)輸入特征圖:一個(gè)三維矩陣,其中前兩個(gè)維度的大小對(duì)應(yīng)于像素圖像的長(zhǎng)度和寬度。第三個(gè)維度的大小為3(對(duì)應(yīng)于彩色圖像的3個(gè)通道:紅、綠和藍(lán))。CNN包含許多個(gè)模塊,每個(gè)模塊執(zhí)行三個(gè)操作。
CNN部分接下來(lái)分別講解卷積、ReLU、Pooling和全連接層。接下來(lái)兩節(jié)是“防止過(guò)擬合”和“利用預(yù)訓(xùn)練的模型”,并提供三個(gè)練習(xí):
練習(xí)1:為貓-狗分類(lèi)(Cat-vs-Dog Classification)建立一個(gè)卷積神經(jīng)網(wǎng)絡(luò)
在這個(gè)練習(xí)中,你將得到動(dòng)手建一個(gè)卷積神經(jīng)網(wǎng)絡(luò)的實(shí)戰(zhàn)經(jīng)驗(yàn),從頭開(kāi)始建立一個(gè)圖像分類(lèi)器來(lái)區(qū)分貓的照片和狗的照片。
練習(xí)2:防止過(guò)擬合
在這個(gè)練習(xí)中,你將進(jìn)一步改進(jìn)練習(xí)1中構(gòu)建的貓狗分類(lèi)CNN模型,運(yùn)用數(shù)據(jù)增強(qiáng)和dropout 正則化。
練習(xí)3:特征提取和微調(diào)
在這個(gè)練習(xí)中,你將對(duì)谷歌的初始 Inception v3 模型進(jìn)行特征提取和fine-tuning,以使你的貓狗分類(lèi)模型達(dá)到更高精度。
-
谷歌
+關(guān)注
關(guān)注
27文章
6168瀏覽量
105392 -
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4771瀏覽量
100772 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8418瀏覽量
132646
原文標(biāo)題:10000+谷歌員工學(xué)過(guò)的谷歌內(nèi)部圖像分類(lèi)課程公開(kāi)了!
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論