0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

全年開源項(xiàng)目的盤點(diǎn)和總結(jié)

jmiy_worldofai ? 來源:lq ? 2019-01-17 11:18 ? 次閱讀

本文作者Pranav Dar是 Analytics Vidhya 的編輯,對(duì)數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)有較深入的研究和簡介,致力于為使用機(jī)器學(xué)習(xí)和人工智能推動(dòng)人類進(jìn)步找到新途徑。2018 這一年中,作者在每個(gè)月都會(huì)發(fā)布一份開源項(xiàng)目月度推薦榜單,而本文則是對(duì)全年開源項(xiàng)目的盤點(diǎn)和總結(jié)。

前沿

關(guān)于托管代碼、與團(tuán)隊(duì)成員合作以及充當(dāng)展示個(gè)人寫代碼技能的「在線簡歷」,最好的平臺(tái)是哪個(gè)?問及任何一位數(shù)據(jù)科學(xué)家,他們都會(huì)讓你去 GitHub。近年來,GitHub 作為一個(gè)真正具有變革性的平臺(tái),已經(jīng)改變了我們托管甚至寫代碼的方式。

但這還不是全部。此外,它還是一個(gè)學(xué)習(xí)平臺(tái)。如果你問怎么學(xué)習(xí)的話,我可以給你一個(gè)暗示——開源項(xiàng)目!

世界領(lǐng)先的科技公司通過在 GitHub 上發(fā)布其熱門算法的代碼,對(duì)項(xiàng)目進(jìn)行開源。2018 年,在 Google 和 Facebook 等公司的帶領(lǐng)下,這類開源項(xiàng)目大幅增加。其中最好的那部分開源項(xiàng)目,寫代碼的研究者還提供了預(yù)訓(xùn)練模型,從而讓你我這些人不必再浪費(fèi)時(shí)間從頭開始創(chuàng)建高難度的模型。

同時(shí),針對(duì)編碼者和開發(fā)者的熱門開源項(xiàng)目也很多——包括備忘單、視頻鏈接、電子書、研究論文鏈接以及其他等資源。無論你在你的專業(yè)領(lǐng)域處于哪個(gè)等級(jí)(初學(xué)者、中級(jí)以及高級(jí)),你總可以在 GitHub 上找到可以學(xué)習(xí)的新東西。

對(duì)于數(shù)據(jù)科學(xué)的很多子領(lǐng)域來說,2018 年是不同凡響的一年,這個(gè)我下面馬上就會(huì)講到。隨著 ULMFiT、BERT 等項(xiàng)目在 GitHub 上進(jìn)行開源,自然語言處理(NLP)迅速成為社區(qū)中談?wù)撟疃嗟念I(lǐng)域。我致力于將自己最大的努力貢獻(xiàn)給這么棒的 GitHub 社區(qū),在這一年中,我精心挑選了每位數(shù)據(jù)科學(xué)家都應(yīng)該了解的 TOP 5 開源項(xiàng)目,并整理成了月度榜單系列。你可以點(diǎn)擊下面的鏈接,前往查看完整榜單:

一月份:https://www.analyticsvidhya.com/blog/2018/02/top-5-github-repositories-january-2018/

二月份:https://www.analyticsvidhya.com/blog/2018/03/top-5-github-repositories-february-2018/

三月份:https://www.analyticsvidhya.com/blog/2018/04/top-7-github-repositories-march-2018/

四月份:https://www.analyticsvidhya.com/blog/2018/05/top-5-github-reddit-data-science-machine-learning-april-2018/

五月份:https://www.analyticsvidhya.com/blog/2018/06/top-5-github-reddit-data-science-machine-learning-may-2018/

六月份:https://www.analyticsvidhya.com/blog/2018/07/top-github-reddit-data-science-machine-learning-june-2018/

七月份:https://www.analyticsvidhya.com/blog/2018/08/best-machine-learning-github-repositories-reddit-threads-july-2018/

八月份:https://www.analyticsvidhya.com/blog/2018/09/best-machine-learning-github-repositories-reddit-threads-august-2018/

九月份:https://www.analyticsvidhya.com/blog/2018/10/best-machine-learning-github-repositories-reddit-threads-september-2018/

十月份:https://www.analyticsvidhya.com/blog/2018/11/best-machine-learning-github-repositories-reddit-threads-october-2018/

十一月份:https://www.analyticsvidhya.com/blog/2018/12/best-machine-learning-github-repositories-reddit-threads-november-2018/

這些文章的部分內(nèi)容會(huì)和我盤點(diǎn)的 2018 年 AI 和 ML 領(lǐng)域最大突破文章有所重合,大家也可以前往以下地址閱讀這篇文章——它從根本上來說是一份盤點(diǎn)了該領(lǐng)域主要進(jìn)展的榜單,我認(rèn)為該領(lǐng)域的每個(gè)人都應(yīng)該有所了解。作為額外福利,文中還有來自專家們的預(yù)測——大家應(yīng)該都不想錯(cuò)過吧。

https://www.analyticsvidhya.com/blog/2018/12/key-breakthroughs-ai-ml-2018-trends-2019/

現(xiàn)在,準(zhǔn)備好去探索新的項(xiàng)目,并努力成為 2019 年的數(shù)據(jù)科學(xué)之星吧。繼續(xù)向下滾動(dòng),大家點(diǎn)擊每個(gè)項(xiàng)目后面的鏈接就可以前往 GitHub 的代碼庫了。

本文將覆蓋到的話題

工具和框架

計(jì)算機(jī)視覺

生成式對(duì)抗網(wǎng)絡(luò)(GANs)

其他深度學(xué)習(xí)項(xiàng)目

自然語言處理(NLP)

自動(dòng)的機(jī)器學(xué)習(xí)(AutoML)

強(qiáng)化學(xué)習(xí)

工具和框架

讓我們開始來看看工具、開發(fā)庫和框架方面的最佳開源項(xiàng)目。由于我們?cè)谟懻摰氖且粋€(gè)軟件倉庫平臺(tái),先講這部分似乎才是正確的打開方式。

科技正在快速發(fā)展,同時(shí)計(jì)算成本也比之前更低了,所以現(xiàn)在有一個(gè)接一個(gè)大量的開源項(xiàng)目可供我們使用。現(xiàn)在,可以被稱作機(jī)器學(xué)習(xí)編碼的黃金時(shí)代嗎?這是一個(gè)開放的問題,但是我們都認(rèn)同的一件事是,現(xiàn)在是做一個(gè)數(shù)據(jù)科學(xué)領(lǐng)域的編程員的好時(shí)期。在這個(gè)部分(以及整篇文章),我都在嘗試讓編程語言盡可能地多樣化些,不過 Python無法避免地占據(jù)主導(dǎo)地位。

ML.NET

開源地址:https://github.com/dotnet/machinelearning

如果你們這些.NET 開發(fā)者們想要學(xué)一點(diǎn)機(jī)器學(xué)習(xí)知識(shí)來補(bǔ)充現(xiàn)有的技能,你會(huì)怎么做?現(xiàn)在就有一個(gè)完美的開源項(xiàng)目可以助你開始實(shí)施這一想法!這個(gè)完美的開源項(xiàng)目就是微軟的一個(gè)項(xiàng)目——ML.NET,它是一個(gè)開源的機(jī)器學(xué)習(xí)框架,讓你用 .NET 就可以設(shè)計(jì)和開發(fā)模型。

你甚至可以將現(xiàn)有的機(jī)器學(xué)習(xí)模型集成到你的應(yīng)用程序中,而完全不要求你切確地知道怎樣開發(fā)機(jī)器學(xué)習(xí)模型。ML.NET 實(shí)際上已被應(yīng)用于多個(gè)微軟產(chǎn)品中,例如 Windows、 Bing 搜索、 MS Office 等等。

ML.NET 可以在 Windows、Linux 以及 MacOS 上運(yùn)行。

TensorFlow.js

開源地址:https://github.com/tensorflow/tfjs

在瀏覽器中實(shí)現(xiàn)機(jī)器學(xué)習(xí)!幾年前,這還只是一個(gè)幻想,而現(xiàn)在成為了一個(gè)震撼人心的現(xiàn)實(shí)。這一領(lǐng)域的大多數(shù)人都與我們最愛的 IDEs 牢不可分,而 TensorFlow.js 則有可能改變我們的習(xí)慣。自今年早些時(shí)候發(fā)布以來,它就成為一個(gè)非常受歡迎的開源項(xiàng)目,并且它的靈活性還在繼續(xù)給人帶來驚喜。

正如開源項(xiàng)目所介紹的,TensorFlow.js 主要有三個(gè)重要特征:

瀏覽器自身可以開發(fā)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型;

可以在瀏覽器中運(yùn)行現(xiàn)有的 TensorFlow 模型;

同時(shí)可以對(duì)這些現(xiàn)有的模型進(jìn)行重新訓(xùn)練或者微調(diào)。

如果你熟悉 Keras,那你也會(huì)對(duì)它的高級(jí)層 API 非常熟悉。目前在 GitHub 的開源項(xiàng)目中,有大量對(duì)外開放的示例,你可前往社區(qū)查看,來活躍一下你的學(xué)習(xí)曲線。

PyTorch 1.0

開源地址:https://github.com/pytorch/pytorch

對(duì)于 PyTorch 來說,2018 年是非常精彩的一年。它贏得了全球數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)研究者們的心,現(xiàn)在他們則不斷為 PyTorch 貢獻(xiàn)項(xiàng)目。PyTorch 易于理解、靈活且被應(yīng)用于眾多高知名度的研究中(本文接下來會(huì)講到)。PyTorch 最新版本(PyTorch 1.0)已經(jīng)規(guī)模化地賦能了大量 Facebook 產(chǎn)品和服務(wù),包括每天進(jìn)行 6 百億次文本翻譯。如果你想知道什么時(shí)候開始涉足 PyTorch,那就是現(xiàn)在。

如果你是這一領(lǐng)域的初學(xué)者,可以先去看看 Faizan Shaikh 寫的 PyTorch 入門指南:https://www.analyticsvidhya.com/blog/2018/02/pytorch-tutorial/

Papers with Code

開源地址:https://github.com/zziz/pwc

嚴(yán)格來說,Papers with Code 這個(gè)開源項(xiàng)目并不是一個(gè)工具或框架,但是對(duì)于數(shù)據(jù)科學(xué)家來說,它就是一個(gè)「金礦」。我們大多數(shù)人都在努力閱讀論文,然后對(duì)論文提出的方法進(jìn)行實(shí)操(至少我是這樣做的)。大量的活動(dòng)部件似乎無法在我們的機(jī)器上工作。

這就是需要用到「Papers with Code」的地方。如名稱所示,它們對(duì)于在最近 6 年左右發(fā)布的重要論文都有代碼實(shí)現(xiàn)。這一論文集網(wǎng)站令人興奮,你會(huì)發(fā)現(xiàn)自己都忍不住贊嘆它。它們甚至將在 NIPS (NeurIPS) 2018 中展示的論文代碼也增加上去了?,F(xiàn)在就去使用 Papers with Code 吧。

計(jì)算機(jī)視覺

得益于計(jì)算成本的下降和頂級(jí)研究者們所帶來的突破的激增(一些事件顯示這兩者可能是互相關(guān)聯(lián)的),現(xiàn)在越來越多人可以使用深度學(xué)習(xí)進(jìn)行研究了。而在深度學(xué)習(xí)這一領(lǐng)域,計(jì)算機(jī)視覺項(xiàng)目是最普遍——在這一章節(jié)中所提到的大部分開源項(xiàng)目都包含了一種計(jì)算機(jī)視覺技術(shù)或另一種計(jì)算機(jī)視覺技術(shù)。

現(xiàn)在,計(jì)算機(jī)視覺可以說是深度學(xué)習(xí)最熱門的領(lǐng)域,并且在可見的未來依舊會(huì)這么熱門。無論是目標(biāo)檢測,還是姿態(tài)估計(jì),幾乎所有的計(jì)算機(jī)視覺任務(wù)都有相對(duì)應(yīng)的開源項(xiàng)目?,F(xiàn)在是了解這些進(jìn)展的最佳時(shí)期—不久后,你或許就可以獲得大量的工作機(jī)會(huì)。

Facebook 的 Detectron

開源地址:https://github.com/facebookresearch/Detectron

在 2018 年初被發(fā)布時(shí),Detectron 就曾掀起千層浪。它由 Facebook 人工智能研究院(FAIR)開發(fā),實(shí)現(xiàn)了最先進(jìn)的目標(biāo)檢測框架。Detectron 采用(驚喜,驚喜?。㏄ython 語言編寫代碼,已經(jīng)幫助實(shí)現(xiàn)了多個(gè)項(xiàng)目,包括 DensePose(之后我們也會(huì)在文中提到)。

這個(gè)開源項(xiàng)目包括了代碼以及 70+個(gè)預(yù)訓(xùn)練模型。與這么好的機(jī)會(huì)失之交臂,就問你同不同意?

英偉達(dá)的 vid2vid 技術(shù)

開源地址:https://github.com/NVIDIA/vid2vid

圖像的目標(biāo)檢測現(xiàn)在做得很不錯(cuò),那在視頻中進(jìn)行目標(biāo)檢測呢?不僅如此,我們能否能延展這一概念以及將某個(gè)視頻的樣式轉(zhuǎn)換為另一種呢?是的,我們可以!這是一個(gè)非??岬母拍畈⑶矣ミ_(dá)已經(jīng)非常慷慨地發(fā)布了 PyTorch 實(shí)現(xiàn),讓大家盡情嘗試。

這個(gè)開源項(xiàng)目包括介紹這一技術(shù)的視頻、完整的研究論文以及代碼。英偉達(dá)的示例中,應(yīng)用了可公開注冊(cè)下載的 Cityscapes dataset(下載地址:https://www.cityscapes-dataset.com/)。這是我自 2018 年以來個(gè)人最喜歡的開源項(xiàng)目。

用 18 秒在 ImageNet 數(shù)據(jù)集上訓(xùn)練出一個(gè)模型

開源地址:https://github.com/diux-dev/imagenet18

用 18 秒時(shí)間訓(xùn)練一個(gè)深度學(xué)習(xí)模型?與此同時(shí)還不使用高端的計(jì)算資源?相信我,現(xiàn)在可以實(shí)現(xiàn)了。Fast.ai 公司的 Jeremy Howard 和他的學(xué)生團(tuán)隊(duì)在熱門的 ImageNet 數(shù)據(jù)集上創(chuàng)建了一個(gè)模型,表現(xiàn)甚至超過了 Google 的方法。

我建議你至少過一下這個(gè)開源項(xiàng)目,了解一下這些研究者是怎樣構(gòu)建代碼的。并非每個(gè)人都擁有多個(gè) GPU(有的人甚至一個(gè)也沒有),因此對(duì)于「小蝦米」來說,這個(gè)開源項(xiàng)目意義重大。

目標(biāo)檢測論文的完整集

開源地址:https://github.com/hoya012/deep_learning_object_detection

這是另一個(gè)研究論文集開源項(xiàng)目,它往往能幫助你了解所選擇的研究課題在多年時(shí)間跨度里發(fā)生了怎樣的演變,同時(shí)這個(gè)一站式歷史記錄正好可以幫助你了解目標(biāo)檢測在多年時(shí)間里經(jīng)歷的變化。它完整地收集了 2014 年至今的論文,甚至也盡可能地收集了每篇論文對(duì)應(yīng)的代碼。

上圖表明了目標(biāo)檢測框架在過去五年時(shí)間里經(jīng)歷了怎樣的演變和轉(zhuǎn)變。很神奇,不是嗎?圖中甚至包括了 2019 年的工作,所以你有的忙了。

Facebook 的 DensePose

開源地址:https://github.com/facebookresearch/DensePose

讓我們將注意力轉(zhuǎn)向姿態(tài)檢測領(lǐng)域。我在今年了解到這一概念本身,并且從此以后深為著迷。上面的圖像抓住了這個(gè)開源項(xiàng)目的精華——戶外場景下的密集人體姿勢(shì)評(píng)估。

該開源項(xiàng)目包含了訓(xùn)練和評(píng)估 DensePose-RCNN 模型的代碼,以及可用于可視化 DensePose COCO 數(shù)據(jù)集的筆記。這是一個(gè)開啟姿態(tài)評(píng)估學(xué)習(xí)的好地方。

Everybody Dance Now—姿態(tài)評(píng)估

開源地址:https://github.com/nyoki-mtl/pytorch-EverybodyDanceNow

上圖(截取自視頻)實(shí)在是激起了我的興趣。我在八月份的盤點(diǎn)文章中就寫到了該研究論文的開源項(xiàng)目,并繼續(xù)佩服這項(xiàng)技術(shù)。這項(xiàng)技術(shù)將不同視頻中人體目標(biāo)間的動(dòng)作進(jìn)行轉(zhuǎn)移。我提到的這個(gè)視頻也可以在開源項(xiàng)目中看到——它的效果超越你的想象!

這個(gè)開源項(xiàng)目進(jìn)一步包含了這一方法的 PyTorch 實(shí)現(xiàn)。這一方法能夠獲取和復(fù)制的復(fù)雜細(xì)節(jié)的數(shù)量是驚人的。

生成式對(duì)抗網(wǎng)絡(luò)(GANs)

我確定你們大多數(shù)人一定接觸過 GAN 的應(yīng)用(即使你們當(dāng)時(shí)可能并沒有意識(shí)到是它)。GAN,或者說生成式對(duì)抗網(wǎng)絡(luò)由 Ian Goodfellow 于 2014 年提出,從那以后就變得熱門。它們專用于執(zhí)行創(chuàng)造性的任務(wù),尤其是藝術(shù)性的任務(wù)。大家可前往https://www.analyticsvidhya.com/blog/2017/06/introductory-generative-adversarial-networks-gans/查看 Faizan Shaikh 所寫的介紹指南,文中還包括了使用 Python 語言的實(shí)現(xiàn)方法。

在 2018 年,我們看到了太多基于 GAN 的項(xiàng)目,因此我也想用一個(gè)獨(dú)立章節(jié)來介紹 GAN 相關(guān)的開源項(xiàng)目。

Deep Painterly Harmonization

開源地址:https://github.com/luanfujun/deep-painterly-harmonization

首先從我最喜愛的一個(gè)開源項(xiàng)目講起。我希望你花點(diǎn)時(shí)間僅僅來欣賞一下上面的圖像。你能分辨出哪張是由人類做的,哪張是由機(jī)器生成的嗎?我確定你不能。這里,第一個(gè)畫面是輸入圖像(原始的),而第三個(gè)畫面是由這項(xiàng)技術(shù)所生成的。

很驚訝,是嗎?這個(gè)算法將你選擇的外部物體添加到了任意一張圖像上,并成功讓它看上去好像本來就應(yīng)該在那里一樣。你不妨查看這個(gè)代碼,然后嘗試親自到一系列不同的圖像上去操作這項(xiàng)技術(shù)。

Image Outpainting

開源地址:https://github.com/bendangnuksung/Image-OutPainting

如果我給你一張圖像,并讓你通過想象圖像在圖中完整場景呈現(xiàn)時(shí)的樣子,來擴(kuò)展它的畫面邊界,你會(huì)怎么辦?正常來說,你可能會(huì)把這個(gè)圖導(dǎo)入到某個(gè)圖像編輯軟件里進(jìn)行操作。但是現(xiàn)在有了一個(gè)非常棒的新軟件——你可以用幾行代碼就實(shí)現(xiàn)這項(xiàng)操作。

這個(gè)項(xiàng)目是斯坦福大學(xué)「Image Outpainting」論文(論文地址:https://cs230.stanford.edu/projects_spring_2018/posters/8265861.pdf,這是一篇無比驚艷并配有示例說明的論文——這就是大多數(shù)研究論文所應(yīng)有的樣子?。┑?Keras 實(shí)現(xiàn)。你或者可以從頭開始創(chuàng)建模型,或者也可以使用這個(gè)開源項(xiàng)目作者所提供的模型。深度學(xué)習(xí)從來不會(huì)停止給人們帶來驚喜。

可視化和理解 GANs

開源地址:https://github.com/CSAILVision/gandissect

如果你至今還沒有掌握 GANs,不妨嘗試一下這個(gè)開源項(xiàng)目。這個(gè)項(xiàng)目由麻省理工人工智能實(shí)驗(yàn)室(MIT CSAIL)提出,可以幫助研究者可視化和理解 GANs。你可以通過觀察或者操作 GAN 模型的神經(jīng),來探究它學(xué)到了什么。

我建議你可以去查看一下 MIT 項(xiàng)目的官方主頁(https://gandissect.csail.mit.edu/),上面有大量的資源(包括視頻 demo),可以讓你對(duì)這個(gè)概念更加熟悉。

GANimation

開源地址:https://github.com/albertpumarola/GANimation

這個(gè)算法可以讓你改變圖像中任何一個(gè)人的面部表情,讓人歡喜也讓人愁。上面在綠框中的圖像是原始圖像,其余的都是由 GANimation 生成的圖像。

開源項(xiàng)目鏈接中包含了入門指南、數(shù)據(jù)準(zhǔn)備資源、預(yù)備知識(shí)以及 Python 代碼。正如論文作者所提到的,不要將它用于不道德的目的。

英偉達(dá)的 FastPhotoStyle

開源地址:https://github.com/NVIDIA/FastPhotoStyle

FastPhotoStyle 這個(gè)開源項(xiàng)目跟前面提到的 Deep Painterly Harmonization 非常像。但值得一提的是,它來源于英偉達(dá)本身。正如你在上圖中所看到的,F(xiàn)astPhotoStyle 算法需要兩項(xiàng)輸入——一個(gè)樣式圖片和一個(gè)內(nèi)容圖片。這個(gè)算法之后會(huì)在這兩項(xiàng)輸入的其中一條路徑上運(yùn)行,來產(chǎn)生輸出——它或者使用逼真的圖像格式化代碼,或者使用語義標(biāo)記地圖(semantic label maps)。

其他深度學(xué)習(xí)開源項(xiàng)目

計(jì)算機(jī)視覺領(lǐng)域可能讓深度學(xué)習(xí)的其他工作都黯然失色,但是我還是想列出計(jì)算機(jī)視覺之外的幾個(gè)有代表性的開源項(xiàng)目。

英偉達(dá)的 WaveGlow

開源地址:https://github.com/NVIDIA/waveglow

音頻處理是深度學(xué)習(xí)開始做出成績的另一領(lǐng)域。不局限于生成音樂,你也可以完成音頻分類、指紋識(shí)別、分割、標(biāo)注等任務(wù)。現(xiàn)在該領(lǐng)域還有很多可以探索的空間,誰知道呢,也許你可以使用這些開源項(xiàng)目來走上人生巔峰。

這里有兩篇非常直觀的文章,可以幫助你熟悉這項(xiàng)開源工作:

《使用深度學(xué)習(xí)開始進(jìn)行音頻數(shù)據(jù)分析(附案例研究)》,Getting Started with Audio Data Analysis using Deep Learning (with case study):https://www.analyticsvidhya.com/blog/2017/08/audio-voice-processing-deep-learning/

《10 個(gè)音頻處理任務(wù)讓你開始深度學(xué)習(xí)應(yīng)用(附案例研究)》,10 Audio Processing Tasks to get you started with Deep Learning Applications (with Case Studies):https://www.analyticsvidhya.com/blog/2018/01/10-audio-processing-projects-applications/

重新回到英偉達(dá)這里。WaveGlow 是一個(gè)基于流的網(wǎng)絡(luò),能夠生成高質(zhì)量的音頻。本質(zhì)上,它是一個(gè)面向語音合成的單網(wǎng)絡(luò)。

這個(gè)開源項(xiàng)目包括 WaveGlow 的 PyTorch 實(shí)現(xiàn),以及可供下載的預(yù)訓(xùn)練模型。同時(shí),研究者也在上面了列下了使用步驟。如果你想從頭開始訓(xùn)練自己的模型,可以遵照使用步驟。

AstroNet

開源地址:https://github.com/google-research/exoplanet-ml

想要發(fā)現(xiàn)你自己的行星?AstroNet 這個(gè)開源項(xiàng)目也許被高估了些,但是確實(shí)能讓你離夢(mèng)想更近。2017 年 12 月,「谷歌大腦」團(tuán)隊(duì)就通過應(yīng)用 AstroNet 發(fā)現(xiàn)了兩個(gè)新的行星。AstroNet 是一個(gè)專門用來處理天文數(shù)據(jù)的深度神經(jīng)網(wǎng)絡(luò),它體現(xiàn)了深度學(xué)習(xí)更廣泛的應(yīng)用,同時(shí)也是一個(gè)真正的里程碑式的進(jìn)展。

現(xiàn)在,這項(xiàng)技術(shù)的研發(fā)團(tuán)隊(duì)已經(jīng)對(duì)運(yùn)行 AstroNet 的整個(gè)代碼進(jìn)行了開源(提示:這個(gè)模型基于 CNNs!)。

VisualDL – 可視化深度學(xué)習(xí)模型

開源地址:https://github.com/PaddlePaddle/VisualDL

誰不喜歡可視化?但是想象深度學(xué)習(xí)模型怎么運(yùn)行,倒是有點(diǎn)嚇人。不過 VisualDL 通過設(shè)計(jì)特定的深度學(xué)習(xí)任務(wù),可以較好地減輕這些挑戰(zhàn)。

針對(duì)可視化任務(wù),VisualDL 目前支持以下幾個(gè)部分:

數(shù)量

柱狀圖

圖像

音頻

圖表

高維的

自然語言處理(NLP)

很驚訝看到 NLP 排在榜單這么后的位置?這主要是因?yàn)槲蚁朐诒疚膶?duì)幾乎所有重要的開源項(xiàng)目盤點(diǎn)一番。在 NLP 之前的那些開源項(xiàng)目,我都大力推薦大家前往查看。在 NLP 部分,我提到的框架包括 ULMFiT、谷歌的 BERT、 ELMo 以及 Facebook 的 PyText。我會(huì)簡要提一下 BERT 以及幾個(gè)其他的開源項(xiàng)目,因?yàn)槲野l(fā)現(xiàn)它們非常有用。

谷歌的 BERT

開源地址:https://github.com/google-research/bert

NLP 這部分,我就不得不提 BERT 了。谷歌 AI 的這個(gè)開源項(xiàng)目為 NLP 領(lǐng)域帶來了突破,贏得了 NLP 愛好者以及專家等人的強(qiáng)烈關(guān)注。繼 ULMFiT 和 ELMo 之后,BERT 以它的性能戰(zhàn)勝了比賽,在 11 項(xiàng) NLP 任務(wù)中獲得最佳成績。

除了我在上面附上的谷歌開源項(xiàng)目的官方鏈接,BERT 的 PyTorch 實(shí)現(xiàn)(查看地址:https://github.com/huggingface/pytorch-pretrained-BERT)也值得前往一看。至于它是否讓 NLP 步入了一個(gè)新時(shí)代,我們不久后就會(huì)知曉了。

MatchZoo

開源項(xiàng)目:https://github.com/NTMC-Community/MatchZoo

MatchZoo 能幫助你知道模型在某個(gè)基準(zhǔn)上表現(xiàn)得怎么樣。對(duì)于 NLP,尤其是深度文本匹配模型,我發(fā)現(xiàn) MatchZoo 工具包非??孔V。MatchZoo 可應(yīng)用的其他相關(guān)任務(wù)包括:

對(duì)話

問答

文本蘊(yùn)涵

信息檢索

釋義識(shí)別

MatchZoo 2,0 版本目前還在開發(fā)中,因此不妨期待一下這個(gè)已經(jīng)很有用的工具箱再增加更多新的功能。

NLP Progress

開源地址:https://github.com/sebastianruder/NLP-progress

這個(gè)開源項(xiàng)目是由 Sebastian Ruder 一人開發(fā)的,其目標(biāo)是追蹤 NLP 領(lǐng)域的最新進(jìn)展,它包含了數(shù)據(jù)集和最先進(jìn)的模型。

任何一項(xiàng)你曾經(jīng)想進(jìn)行更過了解的 NLP 技術(shù)——現(xiàn)在就有一個(gè)擺在你面前的好機(jī)會(huì)。這個(gè)開源項(xiàng)目涵蓋了閱讀理解以及詞性標(biāo)注等傳統(tǒng)和核心的 NLP 任務(wù)。即使你只是隱約對(duì)這個(gè)領(lǐng)域感興趣,也一定要標(biāo)星/標(biāo)記好這個(gè)開源項(xiàng)目。

自動(dòng)的機(jī)器學(xué)習(xí)(AutoML)

2018 年,也是 AutoML 輝煌的一年。隨著工業(yè)界將機(jī)器學(xué)習(xí)集成到它們的核心工作中,其對(duì)數(shù)據(jù)科學(xué)專家的需求也在持續(xù)上升。目前,供給和需求間也存在著較大的差距,而 AutoML 工具則有可能填補(bǔ)這個(gè)差距。

這些工具為那些缺乏數(shù)據(jù)科學(xué)專業(yè)知識(shí)的人所設(shè)計(jì)。雖然這些工具之外還有一些其他很好的工具,但是它們大部分的價(jià)格都要高得多——大多數(shù)個(gè)人負(fù)擔(dān)不起。因此,2018 年,我們這個(gè)很棒的開源社區(qū)前來支援大家,同時(shí)還帶來了兩個(gè)熱門的開源項(xiàng)目。

Auto Keras

開源地址:https://github.com/jhfjhfj1/autokeras

幾個(gè)月前,Auto Keras 一經(jīng)發(fā)布就引起了轟動(dòng)。并且它必然會(huì)引起轟動(dòng)。長期以來,深度學(xué)習(xí)被視為一個(gè)專業(yè)性非常強(qiáng)的領(lǐng)域,所以一個(gè)能夠自動(dòng)完成大部分任務(wù)的開發(fā)庫自然頗受歡迎。引用他們官網(wǎng)上的話:「Auto Keras 的最終目標(biāo)是為僅擁有一定數(shù)據(jù)科學(xué)知識(shí)或機(jī)器學(xué)習(xí)背景的行業(yè)專家提供可輕松應(yīng)用的深度學(xué)習(xí)工具」。

你可以通過下方的種子來安裝這個(gè)開發(fā)庫:

這個(gè)開源項(xiàng)目還包含了一些簡單的示例,可以讓你了解 Auto Keras 的整個(gè)工作流程。

谷歌的 AdaNet

開源地址:https://github.com/tensorflow/adanet

AdaNet 是一個(gè)自動(dòng)學(xué)習(xí)高質(zhì)量模型的框架,對(duì)編程專業(yè)知識(shí)沒有要求。由于 AdaNet 由谷歌開發(fā),因此這一框架基于 TensorFlow。你可以使用 AdaNet 創(chuàng)建所有的模型,同時(shí)可以擴(kuò)展它的應(yīng)用去訓(xùn)練神經(jīng)網(wǎng)絡(luò)。

強(qiáng)化學(xué)習(xí)

因?yàn)槲以?2018 年的綜述文章中盤點(diǎn)過一些強(qiáng)化學(xué)習(xí)開源項(xiàng)目,因此這一章節(jié)的介紹會(huì)相當(dāng)簡單。我希望在包括 RL 在內(nèi)的這些章節(jié)中,能夠促進(jìn)大家對(duì)我們這個(gè)社區(qū)的討論,也希望能過加速這一領(lǐng)域的研究進(jìn)程。

首先,你可以先去看一下 OpenAI 的 Spinning Up 開源項(xiàng)目(項(xiàng)目地址:https://github.com/openai/spinningup),它是一個(gè)針對(duì)初學(xué)者的完全教育型的開源項(xiàng)目。然后可以去看看谷歌的 dopamine 開源項(xiàng)目(項(xiàng)目地址:https://github.com/google/dopamine),它是一個(gè)研究框架,用來加速這一仍舊處于初步發(fā)展階段的領(lǐng)域的研究。接下來,讓我們也了解一下其他的開源項(xiàng)目。

DeepMimic

開源地址:https://github.com/xbpeng/DeepMimic

如果你在社交媒體上關(guān)注了一些研究者,你一定在視頻中看到過上面的圖像。一個(gè)棍形人在地面上奔跑,或者嘗試站起來,或者其他一些動(dòng)作。親愛的讀者,這些就是(人體)動(dòng)作中的強(qiáng)化學(xué)習(xí)。

這里有一個(gè)強(qiáng)化學(xué)習(xí)的標(biāo)志性示例——訓(xùn)練仿真人形來模仿多個(gè)動(dòng)作技能。上面開源項(xiàng)目的鏈接頁面包括代碼、示例以及循序漸進(jìn)的練習(xí)指南。

Reinforcement Learning Notebooks

開源地址:https://github.com/Pulkit-Khandelwal/Reinforcement-Learning-Notebooks

這個(gè)開源項(xiàng)目是一個(gè)強(qiáng)化學(xué)習(xí)算法集,這些算法來自 Richard Sutton 和 Andrew Barto 所寫的書以及其他研究論文,它們?cè)陂_源項(xiàng)目中以 Python notebooks 的格式呈現(xiàn)。

正如該開源項(xiàng)目的開發(fā)者所提到的,如果你在學(xué)習(xí)的過程中同時(shí)進(jìn)行實(shí)操練習(xí),你就能真正學(xué)會(huì)它。這個(gè)項(xiàng)目比較復(fù)雜,如果不進(jìn)行實(shí)操或者僅僅像讀小說一樣去閱讀資源內(nèi)容,你將一無所獲。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:2018 年度 GtiHub 開源項(xiàng)目 TOP 25:數(shù)據(jù)科學(xué) & 機(jī)器學(xué)習(xí)

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Matepad pro12.2 已上市半個(gè)月,但是還沒有在開源網(wǎng)站看到該項(xiàng)目的開源信息,違背開源精神

    Matepad pro12.2 已上市半個(gè)月,本人自己也購買了同款12+256的pad,想要同步學(xué)習(xí)下這款pad的一些體驗(yàn)還不錯(cuò)的功能點(diǎn),但是目前為止還沒有在開源網(wǎng)站看到該項(xiàng)目的開源信息,也查詢不到
    發(fā)表于 08-27 17:25

    [轉(zhuǎn)帖]JAVA私塾關(guān)于實(shí)訓(xùn)項(xiàng)目的總結(jié)

    JAVA私塾關(guān)于實(shí)訓(xùn)項(xiàng)目的總結(jié)        作為就業(yè)培訓(xùn),項(xiàng)目的好壞
    發(fā)表于 01-03 12:04

    開源項(xiàng)目的分類

    21小時(shí)上手深度學(xué)習(xí)1,從開源項(xiàng)目做起
    發(fā)表于 04-19 08:53

    深度學(xué)習(xí)開源項(xiàng)目的繪畫實(shí)現(xiàn)過程

    21小時(shí)上手深度學(xué)習(xí)2-開源項(xiàng)目之繪畫
    發(fā)表于 05-20 12:31

    機(jī)友分享 | 導(dǎo)入機(jī)智云Android開源項(xiàng)目的正確姿勢(shì)

    以下文章來源于小雨編程 ,作者小雨tt“使用機(jī)智云AIoT平臺(tái)支持項(xiàng)目自生成APP源碼,即可輕松解決Android開源項(xiàng)目啦,”開發(fā)者下載源碼后,只需要優(yōu)化UI和設(shè)計(jì)設(shè)備控制界面控制邏輯,源碼的控制
    發(fā)表于 09-28 10:58

    MQTT通信開源項(xiàng)目的系統(tǒng)構(gòu)成框架

    基于STM32和阿里云物聯(lián)網(wǎng)平臺(tái)的MQTT通信開源項(xiàng)目有哪些使用注意事項(xiàng)?
    發(fā)表于 10-09 09:35

    嵌入式研發(fā)項(xiàng)目的一般流程總結(jié)

    通過建立一個(gè)嵌入式項(xiàng)目管理,能夠使產(chǎn)品完成效率更高,少該bug,提高產(chǎn)品質(zhì)量,綜合各大家指導(dǎo)和本人經(jīng)驗(yàn),將嵌入式研發(fā)項(xiàng)目的一般流程總結(jié)如下嵌入式項(xiàng)目管理 嵌入式
    發(fā)表于 12-21 06:55

    盤點(diǎn)一下那些深受“自主研發(fā)”歡迎的開源項(xiàng)目

    當(dāng)然,這個(gè)“獨(dú)立自主研發(fā)”的名號(hào)有可能更多的是宣傳部門,或者是媒體扣上來的帽子,某些國產(chǎn)操作系統(tǒng)隨后也大方承認(rèn)了項(xiàng)目并不是那么的“自主”。其實(shí)利用開源項(xiàng)目做出自己的產(chǎn)品,本身也并沒有什么錯(cuò)——無論是Android還是iOS,都離
    的頭像 發(fā)表于 08-29 11:35 ?3340次閱讀

    實(shí)現(xiàn)SQL Query項(xiàng)目的詳細(xì)資料總結(jié)

    本文檔的主要內(nèi)容詳細(xì)介紹的是實(shí)現(xiàn)SQL Query項(xiàng)目的詳細(xì)資料總結(jié)。
    發(fā)表于 09-25 11:10 ?2次下載

    選擇開源項(xiàng)目的重要因素

    開發(fā)人員在決定是否使用某個(gè)開源項(xiàng)目時(shí)考慮到的最重要事項(xiàng)是什么?代碼質(zhì)量?安全性?好的文檔?
    的頭像 發(fā)表于 11-18 14:25 ?2216次閱讀

    PLC控制項(xiàng)目的實(shí)現(xiàn)都包括哪些步驟呢?

    為了能夠?qū)崿F(xiàn)工業(yè)自動(dòng)化生產(chǎn)的目的,很多工廠會(huì)采用PLC作為上位機(jī)控制器,協(xié)調(diào)指揮各個(gè)設(shè)備的運(yùn)作。那么,PLC控制項(xiàng)目的實(shí)現(xiàn)都包括哪些步驟呢?簡單的來盤點(diǎn)一下:
    的頭像 發(fā)表于 10-20 16:10 ?2314次閱讀

    開源之夏總結(jié)runk:基于Rust的OCI runtime實(shí)現(xiàn)

    這是今年開源之夏活動(dòng)中,陳軼陽同學(xué)參加 runk 項(xiàng)目的總結(jié)文檔,主要介紹了 runk 的由來,以及如何基于現(xiàn)有 kata agent 組件來實(shí)現(xiàn)一個(gè)標(biāo)準(zhǔn)的 OCI runtime。
    的頭像 發(fā)表于 11-29 15:00 ?3529次閱讀

    開源模擬處理器軟件項(xiàng)目的可用性

      本說明介紹了開源模擬處理器軟件 (APS) 項(xiàng)目的可用性,該項(xiàng)目包含許多有用且經(jīng)過驗(yàn)證的基于 Blackfin 的系統(tǒng)服務(wù)和設(shè)備驅(qū)動(dòng)程序示例和測試。該項(xiàng)目是許多編程工作的良好基線,
    的頭像 發(fā)表于 02-03 14:09 ?678次閱讀

    分享幾個(gè)不錯(cuò)的嵌入式開源項(xiàng)目

    于是,我就自己根據(jù)需求寫了簡單的日志庫,通過這幾年項(xiàng)目的驗(yàn)證,大問題沒有,后面維護(hù)項(xiàng)目時(shí),發(fā)現(xiàn)了這個(gè)開源項(xiàng)目,又給我提供了一些思路。這里也分享給大家。
    的頭像 發(fā)表于 07-04 09:09 ?4481次閱讀
    分享幾個(gè)不錯(cuò)的嵌入式<b class='flag-5'>開源</b><b class='flag-5'>項(xiàng)目</b>

    凌蒙派OpenHarmony開源項(xiàng)目榮獲本期Gitee官方推薦

    近日,我司凌蒙派OpenHarmony開源項(xiàng)目榮獲本期Gitee官方推薦。本期Gitee官方推薦不僅是對(duì)凌蒙派OpenHarmony開源項(xiàng)目的高度認(rèn)可,也是對(duì)我司在推動(dòng)
    的頭像 發(fā)表于 11-20 01:04 ?278次閱讀
    凌蒙派OpenHarmony<b class='flag-5'>開源</b><b class='flag-5'>項(xiàng)目</b>榮獲本期Gitee官方推薦