本文作者Pranav Dar是 Analytics Vidhya 的編輯,對(duì)數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)有較深入的研究和簡介,致力于為使用機(jī)器學(xué)習(xí)和人工智能推動(dòng)人類進(jìn)步找到新途徑。2018 這一年中,作者在每個(gè)月都會(huì)發(fā)布一份開源項(xiàng)目月度推薦榜單,而本文則是對(duì)全年開源項(xiàng)目的盤點(diǎn)和總結(jié)。
前沿
關(guān)于托管代碼、與團(tuán)隊(duì)成員合作以及充當(dāng)展示個(gè)人寫代碼技能的「在線簡歷」,最好的平臺(tái)是哪個(gè)?問及任何一位數(shù)據(jù)科學(xué)家,他們都會(huì)讓你去 GitHub。近年來,GitHub 作為一個(gè)真正具有變革性的平臺(tái),已經(jīng)改變了我們托管甚至寫代碼的方式。
但這還不是全部。此外,它還是一個(gè)學(xué)習(xí)平臺(tái)。如果你問怎么學(xué)習(xí)的話,我可以給你一個(gè)暗示——開源項(xiàng)目!
世界領(lǐng)先的科技公司通過在 GitHub 上發(fā)布其熱門算法的代碼,對(duì)項(xiàng)目進(jìn)行開源。2018 年,在 Google 和 Facebook 等公司的帶領(lǐng)下,這類開源項(xiàng)目大幅增加。其中最好的那部分開源項(xiàng)目,寫代碼的研究者還提供了預(yù)訓(xùn)練模型,從而讓你我這些人不必再浪費(fèi)時(shí)間從頭開始創(chuàng)建高難度的模型。
同時(shí),針對(duì)編碼者和開發(fā)者的熱門開源項(xiàng)目也很多——包括備忘單、視頻鏈接、電子書、研究論文鏈接以及其他等資源。無論你在你的專業(yè)領(lǐng)域處于哪個(gè)等級(jí)(初學(xué)者、中級(jí)以及高級(jí)),你總可以在 GitHub 上找到可以學(xué)習(xí)的新東西。
對(duì)于數(shù)據(jù)科學(xué)的很多子領(lǐng)域來說,2018 年是不同凡響的一年,這個(gè)我下面馬上就會(huì)講到。隨著 ULMFiT、BERT 等項(xiàng)目在 GitHub 上進(jìn)行開源,自然語言處理(NLP)迅速成為社區(qū)中談?wù)撟疃嗟念I(lǐng)域。我致力于將自己最大的努力貢獻(xiàn)給這么棒的 GitHub 社區(qū),在這一年中,我精心挑選了每位數(shù)據(jù)科學(xué)家都應(yīng)該了解的 TOP 5 開源項(xiàng)目,并整理成了月度榜單系列。你可以點(diǎn)擊下面的鏈接,前往查看完整榜單:
一月份:https://www.analyticsvidhya.com/blog/2018/02/top-5-github-repositories-january-2018/
二月份:https://www.analyticsvidhya.com/blog/2018/03/top-5-github-repositories-february-2018/
三月份:https://www.analyticsvidhya.com/blog/2018/04/top-7-github-repositories-march-2018/
四月份:https://www.analyticsvidhya.com/blog/2018/05/top-5-github-reddit-data-science-machine-learning-april-2018/
五月份:https://www.analyticsvidhya.com/blog/2018/06/top-5-github-reddit-data-science-machine-learning-may-2018/
六月份:https://www.analyticsvidhya.com/blog/2018/07/top-github-reddit-data-science-machine-learning-june-2018/
七月份:https://www.analyticsvidhya.com/blog/2018/08/best-machine-learning-github-repositories-reddit-threads-july-2018/
八月份:https://www.analyticsvidhya.com/blog/2018/09/best-machine-learning-github-repositories-reddit-threads-august-2018/
九月份:https://www.analyticsvidhya.com/blog/2018/10/best-machine-learning-github-repositories-reddit-threads-september-2018/
十月份:https://www.analyticsvidhya.com/blog/2018/11/best-machine-learning-github-repositories-reddit-threads-october-2018/
十一月份:https://www.analyticsvidhya.com/blog/2018/12/best-machine-learning-github-repositories-reddit-threads-november-2018/
這些文章的部分內(nèi)容會(huì)和我盤點(diǎn)的 2018 年 AI 和 ML 領(lǐng)域最大突破文章有所重合,大家也可以前往以下地址閱讀這篇文章——它從根本上來說是一份盤點(diǎn)了該領(lǐng)域主要進(jìn)展的榜單,我認(rèn)為該領(lǐng)域的每個(gè)人都應(yīng)該有所了解。作為額外福利,文中還有來自專家們的預(yù)測——大家應(yīng)該都不想錯(cuò)過吧。
https://www.analyticsvidhya.com/blog/2018/12/key-breakthroughs-ai-ml-2018-trends-2019/
現(xiàn)在,準(zhǔn)備好去探索新的項(xiàng)目,并努力成為 2019 年的數(shù)據(jù)科學(xué)之星吧。繼續(xù)向下滾動(dòng),大家點(diǎn)擊每個(gè)項(xiàng)目后面的鏈接就可以前往 GitHub 的代碼庫了。
本文將覆蓋到的話題
工具和框架
生成式對(duì)抗網(wǎng)絡(luò)(GANs)
其他深度學(xué)習(xí)項(xiàng)目
自然語言處理(NLP)
自動(dòng)的機(jī)器學(xué)習(xí)(AutoML)
強(qiáng)化學(xué)習(xí)
工具和框架
讓我們開始來看看工具、開發(fā)庫和框架方面的最佳開源項(xiàng)目。由于我們?cè)谟懻摰氖且粋€(gè)軟件倉庫平臺(tái),先講這部分似乎才是正確的打開方式。
科技正在快速發(fā)展,同時(shí)計(jì)算成本也比之前更低了,所以現(xiàn)在有一個(gè)接一個(gè)大量的開源項(xiàng)目可供我們使用。現(xiàn)在,可以被稱作機(jī)器學(xué)習(xí)編碼的黃金時(shí)代嗎?這是一個(gè)開放的問題,但是我們都認(rèn)同的一件事是,現(xiàn)在是做一個(gè)數(shù)據(jù)科學(xué)領(lǐng)域的編程員的好時(shí)期。在這個(gè)部分(以及整篇文章),我都在嘗試讓編程語言盡可能地多樣化些,不過 Python無法避免地占據(jù)主導(dǎo)地位。
ML.NET
開源地址:https://github.com/dotnet/machinelearning
如果你們這些.NET 開發(fā)者們想要學(xué)一點(diǎn)機(jī)器學(xué)習(xí)知識(shí)來補(bǔ)充現(xiàn)有的技能,你會(huì)怎么做?現(xiàn)在就有一個(gè)完美的開源項(xiàng)目可以助你開始實(shí)施這一想法!這個(gè)完美的開源項(xiàng)目就是微軟的一個(gè)項(xiàng)目——ML.NET,它是一個(gè)開源的機(jī)器學(xué)習(xí)框架,讓你用 .NET 就可以設(shè)計(jì)和開發(fā)模型。
你甚至可以將現(xiàn)有的機(jī)器學(xué)習(xí)模型集成到你的應(yīng)用程序中,而完全不要求你切確地知道怎樣開發(fā)機(jī)器學(xué)習(xí)模型。ML.NET 實(shí)際上已被應(yīng)用于多個(gè)微軟產(chǎn)品中,例如 Windows、 Bing 搜索、 MS Office 等等。
ML.NET 可以在 Windows、Linux 以及 MacOS 上運(yùn)行。
TensorFlow.js
開源地址:https://github.com/tensorflow/tfjs
在瀏覽器中實(shí)現(xiàn)機(jī)器學(xué)習(xí)!幾年前,這還只是一個(gè)幻想,而現(xiàn)在成為了一個(gè)震撼人心的現(xiàn)實(shí)。這一領(lǐng)域的大多數(shù)人都與我們最愛的 IDEs 牢不可分,而 TensorFlow.js 則有可能改變我們的習(xí)慣。自今年早些時(shí)候發(fā)布以來,它就成為一個(gè)非常受歡迎的開源項(xiàng)目,并且它的靈活性還在繼續(xù)給人帶來驚喜。
正如開源項(xiàng)目所介紹的,TensorFlow.js 主要有三個(gè)重要特征:
瀏覽器自身可以開發(fā)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型;
可以在瀏覽器中運(yùn)行現(xiàn)有的 TensorFlow 模型;
同時(shí)可以對(duì)這些現(xiàn)有的模型進(jìn)行重新訓(xùn)練或者微調(diào)。
如果你熟悉 Keras,那你也會(huì)對(duì)它的高級(jí)層 API 非常熟悉。目前在 GitHub 的開源項(xiàng)目中,有大量對(duì)外開放的示例,你可前往社區(qū)查看,來活躍一下你的學(xué)習(xí)曲線。
PyTorch 1.0
開源地址:https://github.com/pytorch/pytorch
對(duì)于 PyTorch 來說,2018 年是非常精彩的一年。它贏得了全球數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)研究者們的心,現(xiàn)在他們則不斷為 PyTorch 貢獻(xiàn)項(xiàng)目。PyTorch 易于理解、靈活且被應(yīng)用于眾多高知名度的研究中(本文接下來會(huì)講到)。PyTorch 最新版本(PyTorch 1.0)已經(jīng)規(guī)模化地賦能了大量 Facebook 產(chǎn)品和服務(wù),包括每天進(jìn)行 6 百億次文本翻譯。如果你想知道什么時(shí)候開始涉足 PyTorch,那就是現(xiàn)在。
如果你是這一領(lǐng)域的初學(xué)者,可以先去看看 Faizan Shaikh 寫的 PyTorch 入門指南:https://www.analyticsvidhya.com/blog/2018/02/pytorch-tutorial/
Papers with Code
開源地址:https://github.com/zziz/pwc
嚴(yán)格來說,Papers with Code 這個(gè)開源項(xiàng)目并不是一個(gè)工具或框架,但是對(duì)于數(shù)據(jù)科學(xué)家來說,它就是一個(gè)「金礦」。我們大多數(shù)人都在努力閱讀論文,然后對(duì)論文提出的方法進(jìn)行實(shí)操(至少我是這樣做的)。大量的活動(dòng)部件似乎無法在我們的機(jī)器上工作。
這就是需要用到「Papers with Code」的地方。如名稱所示,它們對(duì)于在最近 6 年左右發(fā)布的重要論文都有代碼實(shí)現(xiàn)。這一論文集網(wǎng)站令人興奮,你會(huì)發(fā)現(xiàn)自己都忍不住贊嘆它。它們甚至將在 NIPS (NeurIPS) 2018 中展示的論文代碼也增加上去了?,F(xiàn)在就去使用 Papers with Code 吧。
計(jì)算機(jī)視覺
得益于計(jì)算成本的下降和頂級(jí)研究者們所帶來的突破的激增(一些事件顯示這兩者可能是互相關(guān)聯(lián)的),現(xiàn)在越來越多人可以使用深度學(xué)習(xí)進(jìn)行研究了。而在深度學(xué)習(xí)這一領(lǐng)域,計(jì)算機(jī)視覺項(xiàng)目是最普遍——在這一章節(jié)中所提到的大部分開源項(xiàng)目都包含了一種計(jì)算機(jī)視覺技術(shù)或另一種計(jì)算機(jī)視覺技術(shù)。
現(xiàn)在,計(jì)算機(jī)視覺可以說是深度學(xué)習(xí)最熱門的領(lǐng)域,并且在可見的未來依舊會(huì)這么熱門。無論是目標(biāo)檢測,還是姿態(tài)估計(jì),幾乎所有的計(jì)算機(jī)視覺任務(wù)都有相對(duì)應(yīng)的開源項(xiàng)目?,F(xiàn)在是了解這些進(jìn)展的最佳時(shí)期—不久后,你或許就可以獲得大量的工作機(jī)會(huì)。
Facebook 的 Detectron
開源地址:https://github.com/facebookresearch/Detectron
在 2018 年初被發(fā)布時(shí),Detectron 就曾掀起千層浪。它由 Facebook 人工智能研究院(FAIR)開發(fā),實(shí)現(xiàn)了最先進(jìn)的目標(biāo)檢測框架。Detectron 采用(驚喜,驚喜?。㏄ython 語言編寫代碼,已經(jīng)幫助實(shí)現(xiàn)了多個(gè)項(xiàng)目,包括 DensePose(之后我們也會(huì)在文中提到)。
這個(gè)開源項(xiàng)目包括了代碼以及 70+個(gè)預(yù)訓(xùn)練模型。與這么好的機(jī)會(huì)失之交臂,就問你同不同意?
英偉達(dá)的 vid2vid 技術(shù)
開源地址:https://github.com/NVIDIA/vid2vid
圖像的目標(biāo)檢測現(xiàn)在做得很不錯(cuò),那在視頻中進(jìn)行目標(biāo)檢測呢?不僅如此,我們能否能延展這一概念以及將某個(gè)視頻的樣式轉(zhuǎn)換為另一種呢?是的,我們可以!這是一個(gè)非??岬母拍畈⑶矣ミ_(dá)已經(jīng)非常慷慨地發(fā)布了 PyTorch 實(shí)現(xiàn),讓大家盡情嘗試。
這個(gè)開源項(xiàng)目包括介紹這一技術(shù)的視頻、完整的研究論文以及代碼。英偉達(dá)的示例中,應(yīng)用了可公開注冊(cè)下載的 Cityscapes dataset(下載地址:https://www.cityscapes-dataset.com/)。這是我自 2018 年以來個(gè)人最喜歡的開源項(xiàng)目。
用 18 秒在 ImageNet 數(shù)據(jù)集上訓(xùn)練出一個(gè)模型
開源地址:https://github.com/diux-dev/imagenet18
用 18 秒時(shí)間訓(xùn)練一個(gè)深度學(xué)習(xí)模型?與此同時(shí)還不使用高端的計(jì)算資源?相信我,現(xiàn)在可以實(shí)現(xiàn)了。Fast.ai 公司的 Jeremy Howard 和他的學(xué)生團(tuán)隊(duì)在熱門的 ImageNet 數(shù)據(jù)集上創(chuàng)建了一個(gè)模型,表現(xiàn)甚至超過了 Google 的方法。
我建議你至少過一下這個(gè)開源項(xiàng)目,了解一下這些研究者是怎樣構(gòu)建代碼的。并非每個(gè)人都擁有多個(gè) GPU(有的人甚至一個(gè)也沒有),因此對(duì)于「小蝦米」來說,這個(gè)開源項(xiàng)目意義重大。
目標(biāo)檢測論文的完整集
開源地址:https://github.com/hoya012/deep_learning_object_detection
這是另一個(gè)研究論文集開源項(xiàng)目,它往往能幫助你了解所選擇的研究課題在多年時(shí)間跨度里發(fā)生了怎樣的演變,同時(shí)這個(gè)一站式歷史記錄正好可以幫助你了解目標(biāo)檢測在多年時(shí)間里經(jīng)歷的變化。它完整地收集了 2014 年至今的論文,甚至也盡可能地收集了每篇論文對(duì)應(yīng)的代碼。
上圖表明了目標(biāo)檢測框架在過去五年時(shí)間里經(jīng)歷了怎樣的演變和轉(zhuǎn)變。很神奇,不是嗎?圖中甚至包括了 2019 年的工作,所以你有的忙了。
Facebook 的 DensePose
開源地址:https://github.com/facebookresearch/DensePose
讓我們將注意力轉(zhuǎn)向姿態(tài)檢測領(lǐng)域。我在今年了解到這一概念本身,并且從此以后深為著迷。上面的圖像抓住了這個(gè)開源項(xiàng)目的精華——戶外場景下的密集人體姿勢(shì)評(píng)估。
該開源項(xiàng)目包含了訓(xùn)練和評(píng)估 DensePose-RCNN 模型的代碼,以及可用于可視化 DensePose COCO 數(shù)據(jù)集的筆記。這是一個(gè)開啟姿態(tài)評(píng)估學(xué)習(xí)的好地方。
Everybody Dance Now—姿態(tài)評(píng)估
開源地址:https://github.com/nyoki-mtl/pytorch-EverybodyDanceNow
上圖(截取自視頻)實(shí)在是激起了我的興趣。我在八月份的盤點(diǎn)文章中就寫到了該研究論文的開源項(xiàng)目,并繼續(xù)佩服這項(xiàng)技術(shù)。這項(xiàng)技術(shù)將不同視頻中人體目標(biāo)間的動(dòng)作進(jìn)行轉(zhuǎn)移。我提到的這個(gè)視頻也可以在開源項(xiàng)目中看到——它的效果超越你的想象!
這個(gè)開源項(xiàng)目進(jìn)一步包含了這一方法的 PyTorch 實(shí)現(xiàn)。這一方法能夠獲取和復(fù)制的復(fù)雜細(xì)節(jié)的數(shù)量是驚人的。
生成式對(duì)抗網(wǎng)絡(luò)(GANs)
我確定你們大多數(shù)人一定接觸過 GAN 的應(yīng)用(即使你們當(dāng)時(shí)可能并沒有意識(shí)到是它)。GAN,或者說生成式對(duì)抗網(wǎng)絡(luò)由 Ian Goodfellow 于 2014 年提出,從那以后就變得熱門。它們專用于執(zhí)行創(chuàng)造性的任務(wù),尤其是藝術(shù)性的任務(wù)。大家可前往https://www.analyticsvidhya.com/blog/2017/06/introductory-generative-adversarial-networks-gans/查看 Faizan Shaikh 所寫的介紹指南,文中還包括了使用 Python 語言的實(shí)現(xiàn)方法。
在 2018 年,我們看到了太多基于 GAN 的項(xiàng)目,因此我也想用一個(gè)獨(dú)立章節(jié)來介紹 GAN 相關(guān)的開源項(xiàng)目。
Deep Painterly Harmonization
開源地址:https://github.com/luanfujun/deep-painterly-harmonization
首先從我最喜愛的一個(gè)開源項(xiàng)目講起。我希望你花點(diǎn)時(shí)間僅僅來欣賞一下上面的圖像。你能分辨出哪張是由人類做的,哪張是由機(jī)器生成的嗎?我確定你不能。這里,第一個(gè)畫面是輸入圖像(原始的),而第三個(gè)畫面是由這項(xiàng)技術(shù)所生成的。
很驚訝,是嗎?這個(gè)算法將你選擇的外部物體添加到了任意一張圖像上,并成功讓它看上去好像本來就應(yīng)該在那里一樣。你不妨查看這個(gè)代碼,然后嘗試親自到一系列不同的圖像上去操作這項(xiàng)技術(shù)。
Image Outpainting
開源地址:https://github.com/bendangnuksung/Image-OutPainting
如果我給你一張圖像,并讓你通過想象圖像在圖中完整場景呈現(xiàn)時(shí)的樣子,來擴(kuò)展它的畫面邊界,你會(huì)怎么辦?正常來說,你可能會(huì)把這個(gè)圖導(dǎo)入到某個(gè)圖像編輯軟件里進(jìn)行操作。但是現(xiàn)在有了一個(gè)非常棒的新軟件——你可以用幾行代碼就實(shí)現(xiàn)這項(xiàng)操作。
這個(gè)項(xiàng)目是斯坦福大學(xué)「Image Outpainting」論文(論文地址:https://cs230.stanford.edu/projects_spring_2018/posters/8265861.pdf,這是一篇無比驚艷并配有示例說明的論文——這就是大多數(shù)研究論文所應(yīng)有的樣子?。┑?Keras 實(shí)現(xiàn)。你或者可以從頭開始創(chuàng)建模型,或者也可以使用這個(gè)開源項(xiàng)目作者所提供的模型。深度學(xué)習(xí)從來不會(huì)停止給人們帶來驚喜。
可視化和理解 GANs
開源地址:https://github.com/CSAILVision/gandissect
如果你至今還沒有掌握 GANs,不妨嘗試一下這個(gè)開源項(xiàng)目。這個(gè)項(xiàng)目由麻省理工人工智能實(shí)驗(yàn)室(MIT CSAIL)提出,可以幫助研究者可視化和理解 GANs。你可以通過觀察或者操作 GAN 模型的神經(jīng),來探究它學(xué)到了什么。
我建議你可以去查看一下 MIT 項(xiàng)目的官方主頁(https://gandissect.csail.mit.edu/),上面有大量的資源(包括視頻 demo),可以讓你對(duì)這個(gè)概念更加熟悉。
GANimation
開源地址:https://github.com/albertpumarola/GANimation
這個(gè)算法可以讓你改變圖像中任何一個(gè)人的面部表情,讓人歡喜也讓人愁。上面在綠框中的圖像是原始圖像,其余的都是由 GANimation 生成的圖像。
開源項(xiàng)目鏈接中包含了入門指南、數(shù)據(jù)準(zhǔn)備資源、預(yù)備知識(shí)以及 Python 代碼。正如論文作者所提到的,不要將它用于不道德的目的。
英偉達(dá)的 FastPhotoStyle
開源地址:https://github.com/NVIDIA/FastPhotoStyle
FastPhotoStyle 這個(gè)開源項(xiàng)目跟前面提到的 Deep Painterly Harmonization 非常像。但值得一提的是,它來源于英偉達(dá)本身。正如你在上圖中所看到的,F(xiàn)astPhotoStyle 算法需要兩項(xiàng)輸入——一個(gè)樣式圖片和一個(gè)內(nèi)容圖片。這個(gè)算法之后會(huì)在這兩項(xiàng)輸入的其中一條路徑上運(yùn)行,來產(chǎn)生輸出——它或者使用逼真的圖像格式化代碼,或者使用語義標(biāo)記地圖(semantic label maps)。
其他深度學(xué)習(xí)開源項(xiàng)目
計(jì)算機(jī)視覺領(lǐng)域可能讓深度學(xué)習(xí)的其他工作都黯然失色,但是我還是想列出計(jì)算機(jī)視覺之外的幾個(gè)有代表性的開源項(xiàng)目。
英偉達(dá)的 WaveGlow
開源地址:https://github.com/NVIDIA/waveglow
音頻處理是深度學(xué)習(xí)開始做出成績的另一領(lǐng)域。不局限于生成音樂,你也可以完成音頻分類、指紋識(shí)別、分割、標(biāo)注等任務(wù)。現(xiàn)在該領(lǐng)域還有很多可以探索的空間,誰知道呢,也許你可以使用這些開源項(xiàng)目來走上人生巔峰。
這里有兩篇非常直觀的文章,可以幫助你熟悉這項(xiàng)開源工作:
《使用深度學(xué)習(xí)開始進(jìn)行音頻數(shù)據(jù)分析(附案例研究)》,Getting Started with Audio Data Analysis using Deep Learning (with case study):https://www.analyticsvidhya.com/blog/2017/08/audio-voice-processing-deep-learning/
《10 個(gè)音頻處理任務(wù)讓你開始深度學(xué)習(xí)應(yīng)用(附案例研究)》,10 Audio Processing Tasks to get you started with Deep Learning Applications (with Case Studies):https://www.analyticsvidhya.com/blog/2018/01/10-audio-processing-projects-applications/
重新回到英偉達(dá)這里。WaveGlow 是一個(gè)基于流的網(wǎng)絡(luò),能夠生成高質(zhì)量的音頻。本質(zhì)上,它是一個(gè)面向語音合成的單網(wǎng)絡(luò)。
這個(gè)開源項(xiàng)目包括 WaveGlow 的 PyTorch 實(shí)現(xiàn),以及可供下載的預(yù)訓(xùn)練模型。同時(shí),研究者也在上面了列下了使用步驟。如果你想從頭開始訓(xùn)練自己的模型,可以遵照使用步驟。
AstroNet
開源地址:https://github.com/google-research/exoplanet-ml
想要發(fā)現(xiàn)你自己的行星?AstroNet 這個(gè)開源項(xiàng)目也許被高估了些,但是確實(shí)能讓你離夢(mèng)想更近。2017 年 12 月,「谷歌大腦」團(tuán)隊(duì)就通過應(yīng)用 AstroNet 發(fā)現(xiàn)了兩個(gè)新的行星。AstroNet 是一個(gè)專門用來處理天文數(shù)據(jù)的深度神經(jīng)網(wǎng)絡(luò),它體現(xiàn)了深度學(xué)習(xí)更廣泛的應(yīng)用,同時(shí)也是一個(gè)真正的里程碑式的進(jìn)展。
現(xiàn)在,這項(xiàng)技術(shù)的研發(fā)團(tuán)隊(duì)已經(jīng)對(duì)運(yùn)行 AstroNet 的整個(gè)代碼進(jìn)行了開源(提示:這個(gè)模型基于 CNNs!)。
VisualDL – 可視化深度學(xué)習(xí)模型
開源地址:https://github.com/PaddlePaddle/VisualDL
誰不喜歡可視化?但是想象深度學(xué)習(xí)模型怎么運(yùn)行,倒是有點(diǎn)嚇人。不過 VisualDL 通過設(shè)計(jì)特定的深度學(xué)習(xí)任務(wù),可以較好地減輕這些挑戰(zhàn)。
針對(duì)可視化任務(wù),VisualDL 目前支持以下幾個(gè)部分:
數(shù)量
柱狀圖
圖像
音頻
圖表
高維的
自然語言處理(NLP)
很驚訝看到 NLP 排在榜單這么后的位置?這主要是因?yàn)槲蚁朐诒疚膶?duì)幾乎所有重要的開源項(xiàng)目盤點(diǎn)一番。在 NLP 之前的那些開源項(xiàng)目,我都大力推薦大家前往查看。在 NLP 部分,我提到的框架包括 ULMFiT、谷歌的 BERT、 ELMo 以及 Facebook 的 PyText。我會(huì)簡要提一下 BERT 以及幾個(gè)其他的開源項(xiàng)目,因?yàn)槲野l(fā)現(xiàn)它們非常有用。
谷歌的 BERT
開源地址:https://github.com/google-research/bert
NLP 這部分,我就不得不提 BERT 了。谷歌 AI 的這個(gè)開源項(xiàng)目為 NLP 領(lǐng)域帶來了突破,贏得了 NLP 愛好者以及專家等人的強(qiáng)烈關(guān)注。繼 ULMFiT 和 ELMo 之后,BERT 以它的性能戰(zhàn)勝了比賽,在 11 項(xiàng) NLP 任務(wù)中獲得最佳成績。
除了我在上面附上的谷歌開源項(xiàng)目的官方鏈接,BERT 的 PyTorch 實(shí)現(xiàn)(查看地址:https://github.com/huggingface/pytorch-pretrained-BERT)也值得前往一看。至于它是否讓 NLP 步入了一個(gè)新時(shí)代,我們不久后就會(huì)知曉了。
MatchZoo
開源項(xiàng)目:https://github.com/NTMC-Community/MatchZoo
MatchZoo 能幫助你知道模型在某個(gè)基準(zhǔn)上表現(xiàn)得怎么樣。對(duì)于 NLP,尤其是深度文本匹配模型,我發(fā)現(xiàn) MatchZoo 工具包非??孔V。MatchZoo 可應(yīng)用的其他相關(guān)任務(wù)包括:
對(duì)話
文本蘊(yùn)涵
信息檢索
釋義識(shí)別
MatchZoo 2,0 版本目前還在開發(fā)中,因此不妨期待一下這個(gè)已經(jīng)很有用的工具箱再增加更多新的功能。
NLP Progress
開源地址:https://github.com/sebastianruder/NLP-progress
這個(gè)開源項(xiàng)目是由 Sebastian Ruder 一人開發(fā)的,其目標(biāo)是追蹤 NLP 領(lǐng)域的最新進(jìn)展,它包含了數(shù)據(jù)集和最先進(jìn)的模型。
任何一項(xiàng)你曾經(jīng)想進(jìn)行更過了解的 NLP 技術(shù)——現(xiàn)在就有一個(gè)擺在你面前的好機(jī)會(huì)。這個(gè)開源項(xiàng)目涵蓋了閱讀理解以及詞性標(biāo)注等傳統(tǒng)和核心的 NLP 任務(wù)。即使你只是隱約對(duì)這個(gè)領(lǐng)域感興趣,也一定要標(biāo)星/標(biāo)記好這個(gè)開源項(xiàng)目。
自動(dòng)的機(jī)器學(xué)習(xí)(AutoML)
2018 年,也是 AutoML 輝煌的一年。隨著工業(yè)界將機(jī)器學(xué)習(xí)集成到它們的核心工作中,其對(duì)數(shù)據(jù)科學(xué)專家的需求也在持續(xù)上升。目前,供給和需求間也存在著較大的差距,而 AutoML 工具則有可能填補(bǔ)這個(gè)差距。
這些工具為那些缺乏數(shù)據(jù)科學(xué)專業(yè)知識(shí)的人所設(shè)計(jì)。雖然這些工具之外還有一些其他很好的工具,但是它們大部分的價(jià)格都要高得多——大多數(shù)個(gè)人負(fù)擔(dān)不起。因此,2018 年,我們這個(gè)很棒的開源社區(qū)前來支援大家,同時(shí)還帶來了兩個(gè)熱門的開源項(xiàng)目。
Auto Keras
開源地址:https://github.com/jhfjhfj1/autokeras
幾個(gè)月前,Auto Keras 一經(jīng)發(fā)布就引起了轟動(dòng)。并且它必然會(huì)引起轟動(dòng)。長期以來,深度學(xué)習(xí)被視為一個(gè)專業(yè)性非常強(qiáng)的領(lǐng)域,所以一個(gè)能夠自動(dòng)完成大部分任務(wù)的開發(fā)庫自然頗受歡迎。引用他們官網(wǎng)上的話:「Auto Keras 的最終目標(biāo)是為僅擁有一定數(shù)據(jù)科學(xué)知識(shí)或機(jī)器學(xué)習(xí)背景的行業(yè)專家提供可輕松應(yīng)用的深度學(xué)習(xí)工具」。
你可以通過下方的種子來安裝這個(gè)開發(fā)庫:
這個(gè)開源項(xiàng)目還包含了一些簡單的示例,可以讓你了解 Auto Keras 的整個(gè)工作流程。
谷歌的 AdaNet
開源地址:https://github.com/tensorflow/adanet
AdaNet 是一個(gè)自動(dòng)學(xué)習(xí)高質(zhì)量模型的框架,對(duì)編程專業(yè)知識(shí)沒有要求。由于 AdaNet 由谷歌開發(fā),因此這一框架基于 TensorFlow。你可以使用 AdaNet 創(chuàng)建所有的模型,同時(shí)可以擴(kuò)展它的應(yīng)用去訓(xùn)練神經(jīng)網(wǎng)絡(luò)。
強(qiáng)化學(xué)習(xí)
因?yàn)槲以?2018 年的綜述文章中盤點(diǎn)過一些強(qiáng)化學(xué)習(xí)開源項(xiàng)目,因此這一章節(jié)的介紹會(huì)相當(dāng)簡單。我希望在包括 RL 在內(nèi)的這些章節(jié)中,能夠促進(jìn)大家對(duì)我們這個(gè)社區(qū)的討論,也希望能過加速這一領(lǐng)域的研究進(jìn)程。
首先,你可以先去看一下 OpenAI 的 Spinning Up 開源項(xiàng)目(項(xiàng)目地址:https://github.com/openai/spinningup),它是一個(gè)針對(duì)初學(xué)者的完全教育型的開源項(xiàng)目。然后可以去看看谷歌的 dopamine 開源項(xiàng)目(項(xiàng)目地址:https://github.com/google/dopamine),它是一個(gè)研究框架,用來加速這一仍舊處于初步發(fā)展階段的領(lǐng)域的研究。接下來,讓我們也了解一下其他的開源項(xiàng)目。
DeepMimic
開源地址:https://github.com/xbpeng/DeepMimic
如果你在社交媒體上關(guān)注了一些研究者,你一定在視頻中看到過上面的圖像。一個(gè)棍形人在地面上奔跑,或者嘗試站起來,或者其他一些動(dòng)作。親愛的讀者,這些就是(人體)動(dòng)作中的強(qiáng)化學(xué)習(xí)。
這里有一個(gè)強(qiáng)化學(xué)習(xí)的標(biāo)志性示例——訓(xùn)練仿真人形來模仿多個(gè)動(dòng)作技能。上面開源項(xiàng)目的鏈接頁面包括代碼、示例以及循序漸進(jìn)的練習(xí)指南。
Reinforcement Learning Notebooks
開源地址:https://github.com/Pulkit-Khandelwal/Reinforcement-Learning-Notebooks
這個(gè)開源項(xiàng)目是一個(gè)強(qiáng)化學(xué)習(xí)算法集,這些算法來自 Richard Sutton 和 Andrew Barto 所寫的書以及其他研究論文,它們?cè)陂_源項(xiàng)目中以 Python notebooks 的格式呈現(xiàn)。
正如該開源項(xiàng)目的開發(fā)者所提到的,如果你在學(xué)習(xí)的過程中同時(shí)進(jìn)行實(shí)操練習(xí),你就能真正學(xué)會(huì)它。這個(gè)項(xiàng)目比較復(fù)雜,如果不進(jìn)行實(shí)操或者僅僅像讀小說一樣去閱讀資源內(nèi)容,你將一無所獲。
-
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8418瀏覽量
132630 -
開源項(xiàng)目
+關(guān)注
關(guān)注
0文章
37瀏覽量
7189 -
數(shù)據(jù)科學(xué)
+關(guān)注
關(guān)注
0文章
165瀏覽量
10059
原文標(biāo)題:2018 年度 GtiHub 開源項(xiàng)目 TOP 25:數(shù)據(jù)科學(xué) & 機(jī)器學(xué)習(xí)
文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論