源于對學(xué)術(shù)的熱愛,讓很多人走上了博士這條求索之路,而熱愛會讓他們勤奮付出,勤奮讓他們成為佼佼者。
在剛剛過去的 ICML 大會上,來自布朗大學(xué)計算機(jī)科學(xué)的博士生 David Abel 詳細(xì)整理了一份 87 頁的 ICML 大會筆記,包括 Tutorials, Main Conference, Workshops, 的會議內(nèi)容和論文干貨,并進(jìn)行公開分享,隨后學(xué)術(shù)界的朋友們開始轉(zhuǎn)發(fā)收藏。
Tutorials 會議上主要介紹了 PAC-bayes 理論和元學(xué)習(xí)的內(nèi)容。
此外,還介紹了深度強(qiáng)化學(xué)習(xí),強(qiáng)化學(xué)習(xí)理論,多任務(wù)和終身學(xué)習(xí)和強(qiáng)化學(xué)習(xí)理論,強(qiáng)化學(xué)習(xí)和深度學(xué)習(xí)理論。
Workshops 部分包括用 AI 應(yīng)對氣候變化,強(qiáng)化學(xué)習(xí)用于真實生活場景以及真實世界的順序決策三大部分。
David Abel 的每一篇論文筆記基本上不超過兩頁,是一分mini版本的論文概要,對論文的每一部分都做了簡要總結(jié)。以 ICML 2019 主會上的一篇最佳論文《 Challenging Assumptions in Learning Disentangled Representations》為例,他先提出了是否能以無監(jiān)督方法學(xué)習(xí)解耦表示的關(guān)鍵問題,隨后定義問題,提煉了幾點實驗發(fā)現(xiàn),最后給出了作者結(jié)論中的關(guān)鍵要點。
完整筆記下載鏈接看這里:
https://david-abel.github.io/notes/icml_2019.pdf
很多博士生可能覺得論文眼花繚亂看都不看不過來,更不要說整理出一份詳細(xì)的筆記。而對很多還沒有機(jī)會參加 ICML 這樣頂級大會的人來說,顯然,David Abel 的筆記成了他們的福音,有人說快要完全依賴他的筆記過活了。
事實上,優(yōu)秀的人的優(yōu)秀不是間隙性的,而是一種持續(xù)性的習(xí)慣。
除了 ICML 2019 的會議筆記外,這位小哥還曾在參加今年 2 月和 5 月舉辦的 AAAI 大會和 ICLR 頂會后做了詳細(xì)的筆記,并進(jìn)行公開分享。
ICLR 2019 大會筆記:
https://david-abel.github.io/notes/iclr_2019.pdf
AAAI 2019 大會筆記:
https://david-abel.github.io/notes/aaai_2019.pdf
當(dāng)然,從 2017 年起參加的 7 次頂會后,他都做了相關(guān)筆記。
根據(jù) David Abel 在自己主頁的介紹,他在布朗大學(xué)專注于強(qiáng)化學(xué)習(xí),師從主要從事強(qiáng)化學(xué)習(xí) Michael Littman 教授,后者也從事機(jī)器學(xué)習(xí)、博弈論、計算機(jī)網(wǎng)絡(luò)、馬爾可夫決策過程等領(lǐng)域的研究工作,并 2018 年由于其“為人工智能的順序決策算法的設(shè)計和分析做出的貢獻(xiàn)”而被選為 ACM Fellow。
當(dāng)然,作為一個如此認(rèn)真的博士生,David Abel 也有一定的學(xué)術(shù)能力和研究成果。
在 AI 研究方面,他的研究調(diào)查了機(jī)器學(xué)習(xí)的基礎(chǔ)及其在科學(xué)和社會挑戰(zhàn)中的應(yīng)用。
目前,他專注于理解抽象及其在 agency 中的作用,研究理性智能體如何模仿它們所處的世界,重點關(guān)注那些有效學(xué)習(xí)和規(guī)劃的代表性實踐。他通常使用強(qiáng)化學(xué)習(xí)范例,借鑒計算學(xué)習(xí)理論、概率和信息理論的工具。
他也非常關(guān)心 ML 對世界相關(guān)問題的負(fù)責(zé)任的應(yīng)用,如計算可持續(xù)性的使命。
在主頁里,David Abel 列出了他與其導(dǎo)師 Michael Littman 等人在各頂會上發(fā)布的數(shù)篇學(xué)術(shù)成果。
在IJCAI 2019上,發(fā)表了一篇《The Expected-Length Modelof Options》的論文,他們引入并激勵選項的期望長度模型,這是一個用于表征選項的過渡和獎勵功能的更簡單的選擇。
而在 AAAI 2019 上,發(fā)表了一篇《狀態(tài)抽象作為學(xué)徒學(xué)習(xí)中的壓縮》(State Abstraction as Compression in Apprenticeship Learning)。他們通過速率 - 失真理論(rate-distortion theory)研究了狀態(tài)抽象(state abstractions),以在壓縮和最優(yōu)性之間進(jìn)行權(quán)衡。
同樣在 ICML 2019,發(fā)表了《通過探索最小化覆蓋時間來發(fā)現(xiàn)選項》(Discovering Options for Exploration by Minimizing Cover Time),他們提出了一種基于最小化覆蓋時間探索的選項發(fā)現(xiàn)方法。
在 preprint 2018 上,發(fā)表了《在基于模型的強(qiáng)化學(xué)習(xí)中減輕計劃器的過度擬合》(Mitigating Planner Overfitting in Model-Based Reinforcement Learning),他們探索了不同的方法來避免基于模型的 RL 中規(guī)劃過度擬合。
發(fā)論文之余,David Abel 還有不錯的的教學(xué)經(jīng)歷。
2017 年夏天,他在布朗大學(xué)的 STEM II 夏季課程中教授“人工智能與社會”課程,該課程探討了人工智能的核心思想,以及人工智能和自動化會對社會產(chǎn)生的影響。
David Abel 主頁地址:
https://david-abel.github.io/
-
計算機(jī)科學(xué)
+關(guān)注
關(guān)注
1文章
144瀏覽量
11381 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8435瀏覽量
132887 -
強(qiáng)化學(xué)習(xí)
+關(guān)注
關(guān)注
4文章
268瀏覽量
11277
原文標(biāo)題:真正的博士是如何參加AAAI, ICML, ICLR等AI頂會的?
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論