AAAI 2019今天公布最佳論文、最佳學(xué)生論文等獎(jiǎng)項(xiàng),在7745篇投稿論文、16.2%錄取率的競(jìng)爭(zhēng)下,來(lái)自以色列理工學(xué)院、CMU、斯坦福和MIT的論文分別斬獲大獎(jiǎng),其中強(qiáng)化學(xué)習(xí)、零樣本學(xué)習(xí)尤其受到關(guān)注。
作為2019年人工智能學(xué)界的第一個(gè)頂會(huì),AAAI 2019已經(jīng)在美國(guó)夏威夷拉開(kāi)了帷幕。
今年AAAI大會(huì)主席是AI、機(jī)器人研究領(lǐng)域著名專家、德州大學(xué)奧斯汀分校的Peter Stone教授 ,南京大學(xué)周志華教授、喬治亞理工大學(xué)Pascal Van Hentenryck教授是聯(lián)合程序主席。
早在大會(huì)開(kāi)始前,周志華教授已經(jīng)透露AAAI 2019的論文錄取率:16.2%,可以說(shuō)是AAAI錄取率最低的一年。而且,今年的投稿數(shù)量高達(dá)7745篇,比去年翻了一番,創(chuàng)下AAAI歷史新高!
日前,AAAI 2019 最受矚目的各大獎(jiǎng)項(xiàng)已經(jīng)全部公布,包括最佳論文獎(jiǎng)和最佳學(xué)生論文獎(jiǎng)、經(jīng)典論文獎(jiǎng)、藍(lán)天創(chuàng)意獎(jiǎng)、杰出教育家獎(jiǎng)、Robert S. Engelmore紀(jì)念獎(jiǎng),F(xiàn)eigenbaum 獎(jiǎng)等。
2019 AAAI經(jīng)典論文獎(jiǎng)
2019 AAAI經(jīng)典論文獎(jiǎng)授予了2002年在加拿大舉行的第18屆AAAI會(huì)議最具影響力的論文:
Content-Boosted Collaborative Filtering for Improved Recommendations
作者:Prem Melville, Raymond J. Mooney, Ramadass Nagarajan
作者機(jī)構(gòu):德克薩斯大學(xué)
論文地址:
https://www.cs.utexas.edu/~ml/papers/cbcf-aaai-02.pdf
這篇論文提出一種在推薦系統(tǒng)中補(bǔ)充基于內(nèi)容和協(xié)同過(guò)濾方法的方法。
論文的第一作者Prem Melville將在1月29日上午11:30進(jìn)行演講。
最佳論文獎(jiǎng)(Outstanding Paper Award)
今年,AAAI的“Outstanding Paper Award”共提及4篇論文,其中最佳論文及提名、最佳學(xué)生論文及提名各有一篇,這些獎(jiǎng)項(xiàng)將由大會(huì)程序主席Pascal Van Hentenryck和周志華在頒發(fā)。
AAAI-19 最佳論文獎(jiǎng)
如何在強(qiáng)化學(xué)習(xí)中結(jié)合樹搜索方法(How to Combine Tree-Search Methods in Reinforcement Learning)
作者:Yonathan Efroni, Gal Dalal, Bruno Scherrer, Shie Mannor
機(jī)構(gòu):以色列理工學(xué)院,法國(guó)國(guó)家信息與自動(dòng)化研究所(INRIA)
鏈接:https://arxiv.org/abs/1809.01843
最佳論文提名:
Solving Imperfect-Information Games via Discounted Regret Minimization
作者:Noam Brown, Tuomas Sandholm
機(jī)構(gòu):卡內(nèi)基梅隆大學(xué)(CMU)
鏈接:https://arxiv.org/abs/1809.04040
AAAI-19最佳學(xué)生論文獎(jiǎng)
Zero Shot Learning for Code Education: Rubric Sampling with Deep Learning Inference
作者:Mike Wu, Milan Mosse, Noah Goodman, Chris Piech
機(jī)構(gòu):斯坦福大學(xué)
鏈接:https://arxiv.org/abs/1809.01357
最佳學(xué)生論文獎(jiǎng)提名:
Learning to Teach in Cooperative Multiagent Reinforcement Learning
作者:Shayegan Omidshafiei, Dong Ki Kim, Miao Liu(劉淼), Gerald Tesauro, Matthew Riemer, Chris Amato, Murray Campbell, Jonathan How
機(jī)構(gòu):MIT、IBM、美國(guó)東北大學(xué)
鏈接:https://arxiv.org/abs/1805.07830
CMU、斯坦福、MIT等摘獲最佳論文獎(jiǎng),強(qiáng)化學(xué)習(xí)最受關(guān)注
AAAI-19 最佳論文獎(jiǎng)
如何在強(qiáng)化學(xué)習(xí)中結(jié)合樹搜索方法(How to Combine Tree-Search Methods in Reinforcement Learning)
作者:Yonathan Efroni, Gal Dalal, Bruno Scherrer, Shie Mannor
機(jī)構(gòu):以色列理工學(xué)院,法國(guó)國(guó)家信息與自動(dòng)化研究所(INRIA)
論文簡(jiǎn)介:
有限時(shí)域前瞻策略(Finite-horizon lookahead policies)已經(jīng)在強(qiáng)化學(xué)習(xí)中得到廣泛應(yīng)用,并取得了令人印象深刻的實(shí)證成果。通常,前瞻性策略是通過(guò)特定的規(guī)劃方法實(shí)現(xiàn)的,例如蒙特卡洛樹搜索(Monte Carlo Tree Search),AlphaZero正是應(yīng)用了該方法。將規(guī)劃問(wèn)題視為樹搜索,實(shí)現(xiàn)上的一種合理做法是只備份葉節(jié)點(diǎn)上的值,而根節(jié)點(diǎn)上獲得的信息只用于更新策略。
在這篇論文中,作者質(zhì)疑了這種方法的有效性,認(rèn)為后一過(guò)程通常是非收縮的,其收斂性沒(méi)有保證。
論文提出一種簡(jiǎn)單明了的增強(qiáng)方法:使用最優(yōu)樹路徑的返回值來(lái)備份根節(jié)點(diǎn)的后代的值。為了實(shí)現(xiàn)結(jié)果,作者引入一個(gè)稱為多步貪婪一致性(multiple-step greedy consistency)的概念。然后,在樹搜索階段和值估計(jì)階段同時(shí)注入噪聲的情況下,為上述增強(qiáng)方法的兩個(gè)算法實(shí)例提供收斂速度。
AAAI-19最佳學(xué)生論文獎(jiǎng)
代碼教育的零樣本學(xué)習(xí):深度學(xué)習(xí)推理的量規(guī)采樣(Zero Shot Learning for Code Education: Rubric Sampling with Deep Learning Inference)
作者:Mike Wu, Milan Mosse, Noah Goodman, Chris Piech
機(jī)構(gòu):斯坦福大學(xué)
論文簡(jiǎn)介:
現(xiàn)代計(jì)算機(jī)科學(xué)教育中,大規(guī)模開(kāi)放在線課程(MOOC)記錄了數(shù)千小時(shí)關(guān)于學(xué)生如何解決編碼挑戰(zhàn)的數(shù)據(jù)。由于數(shù)據(jù)豐富,這些平臺(tái)吸引了機(jī)器學(xué)習(xí)社區(qū)的興趣,許多新算法試圖自動(dòng)提供反饋,以幫助未來(lái)的學(xué)生學(xué)習(xí)。但對(duì)于第一批學(xué)生呢?在大多數(shù)教育環(huán)境(如教室)中,沒(méi)有足夠的作業(yè)歷史數(shù)據(jù)來(lái)進(jìn)行監(jiān)督學(xué)習(xí)。
在這篇論文中,作者提出一種“human-in-the-loop”的“量規(guī)抽樣”(Rubric sampling)方法來(lái)解決“零樣本”反饋的挑戰(zhàn)。結(jié)果證明,該方法能夠?yàn)榈谝慌鷮W(xué)生的入門編程作業(yè)提供自主反饋,其準(zhǔn)確性大大優(yōu)于依賴大量數(shù)據(jù)的算法,甚至接近人類水平。
Rubric sampling只需要最少的教師工作量,能夠?qū)⒎答伵c學(xué)生答案的特定部分聯(lián)系起來(lái),并能夠用教師的語(yǔ)言清晰地解答學(xué)生的錯(cuò)誤。隨著更多特定于作業(yè)的學(xué)生數(shù)據(jù)可獲取,深度學(xué)習(xí)推理使得Rubric sampling方法的效果能夠進(jìn)一步提高。作者使用Code.org(世界最大的編程教育平臺(tái))的一個(gè)新數(shù)據(jù)集證明了他們的結(jié)果。
最佳論文獎(jiǎng)提名:
Solving Imperfect-Information Games via Discounted Regret Minimization
作者:Noam Brown, Tuomas Sandholm
機(jī)構(gòu):卡內(nèi)基梅隆大學(xué)(CMU)
這篇論文的兩位作者分別是CMU計(jì)算機(jī)系博士生Noam Brown,以及該校計(jì)算機(jī)系教授Tuomas Sandholm。這兩位也是去年的著名的***AI程序“冷撲大師”(Libratus)的締造者,堪稱***AI之父。論文通過(guò)***基準(zhǔn)平臺(tái)來(lái)探討不完全信息條件下的博弈策略問(wèn)題。
論文簡(jiǎn)介:
反事實(shí)后悔最小化(CFR)是目前最熱門一系列迭代算法,在實(shí)際應(yīng)用中,也是近似解決大型不完美信息博弈問(wèn)題的最快方法。在本文中,我們介紹了新的CFR變體。分別為:
1)以多種方式從先前的迭代中將后悔程度實(shí)現(xiàn)縮減(在某些情況下,對(duì)正向和負(fù)向后悔采用不同處理方式),
2)以多種方式對(duì)迭代進(jìn)行重新加權(quán),獲得輸出策略,
3)使用非標(biāo)準(zhǔn)后悔最小化和/或
4)利用“樂(lè)觀后悔匹配”方式。這可以在許多環(huán)境下顯著提高性能。
首先,我們?cè)诿總€(gè)測(cè)試的游戲中引入一個(gè)優(yōu)于CFR +(一種之前的最先進(jìn)的算法)的變體,包括大規(guī)模的現(xiàn)實(shí)設(shè)置。 CFR +是一個(gè)強(qiáng)大的基準(zhǔn):目前沒(méi)有其他算法能夠超越它。最后,我們表明,與CFR +不同,許多重要的算法的新變體與現(xiàn)代不完美信息博弈修剪技術(shù)兼容,也與博弈樹中的采樣兼容。
最佳學(xué)生論文獎(jiǎng)提名:
Learning to Teach in Cooperative Multiagent Reinforcement Learning
作者:Shayegan Omidshafiei, Dong Ki Kim, Miao Liu(劉淼), Gerald Tesauro, Matthew Riemer, Chris Amato, Murray Campbell, Jonathan How
機(jī)構(gòu):MIT、IBM、美國(guó)東北大學(xué)
集體人類知識(shí)顯然因?yàn)閭€(gè)人創(chuàng)新通過(guò)交流向其他人流動(dòng)這一事實(shí)而獲益。與人類社會(huì)群體類似,分布式學(xué)習(xí)系統(tǒng)中的智能體也可能會(huì)從彼此交流中受益,實(shí)現(xiàn)分享知識(shí)和教授技能。先前的研究成果已經(jīng)在關(guān)注改進(jìn)智能體學(xué)習(xí)的教學(xué)問(wèn)題,但是這些方法所基于的假設(shè),讓這些教學(xué)上的應(yīng)用無(wú)法用在一般的多智能體問(wèn)題上,或者還需要領(lǐng)域內(nèi)專業(yè)知識(shí)來(lái)解決關(guān)于應(yīng)用范圍的問(wèn)題。這種學(xué)習(xí)教學(xué)問(wèn)題存在固有的復(fù)雜性,與量度教學(xué)質(zhì)量和效果的長(zhǎng)期影響密切相關(guān),給標(biāo)準(zhǔn)化多智能體共同教學(xué)問(wèn)題造成了更大的挑戰(zhàn)。
與現(xiàn)有研究相比,本文提出了智能體在多智能體環(huán)境中進(jìn)行教學(xué)的首個(gè)通用的框架和算法。我們的算法(LeCTR)解決了合作多智能體強(qiáng)化學(xué)習(xí)中的點(diǎn)對(duì)點(diǎn)教學(xué)問(wèn)題。我們的方法中的每個(gè)智能體都會(huì)學(xué)習(xí)在何時(shí)何地提出建議,然后利用收到的建議來(lái)改善學(xué)習(xí)效果。重要的是,這些智能體的角色并不固定,智能體能夠?qū)W會(huì)在適當(dāng)?shù)臅r(shí)刻承擔(dān)學(xué)生和/或教師的角色,發(fā)出請(qǐng)求并提供建議,以提高整個(gè)團(tuán)隊(duì)的表現(xiàn)。與目前最先進(jìn)的教學(xué)方法的實(shí)證比較表明,我們的教學(xué)智能體不僅學(xué)得更快,而且可以學(xué)會(huì)協(xié)調(diào)用現(xiàn)有方法無(wú)法完成的任務(wù)。
其他大獎(jiǎng):藍(lán)天獎(jiǎng)、Feigenbaum 紀(jì)念獎(jiǎng)等
AAAI-19藍(lán)天創(chuàng)意獎(jiǎng)(AAAI-19 Blue Sky Idea Awards)
AAAI與計(jì)算機(jī)研究協(xié)會(huì)計(jì)算社區(qū)聯(lián)盟(CCC)合作,宣布三篇獲獎(jiǎng)?wù)撐?,這些論文提出了可以激發(fā)研究界追求新方向的想法和愿景,比如提出了新問(wèn)題、新應(yīng)用領(lǐng)域或新方法。獲獎(jiǎng)?wù)叻謩e是:
第一名:Pat Langley 獲獎(jiǎng)?wù)撐模篍xplainable, Normative, and Justified Agency
第二名:Francesca Rossi和Nicholas Mattei 獲獎(jiǎng)?wù)撐模築uilding Ethically Bounded AI
第三名: Barry Smyth,獲獎(jiǎng)?wù)撐腞ecommender Systems: A Healthy Obsession
2019 AAAI/EAAI杰出教育家獎(jiǎng)
AAAI / EAAI杰出教育家獎(jiǎng)旨在表彰為人工智能教育做出重大貢獻(xiàn)、為人工智能社區(qū)實(shí)現(xiàn)長(zhǎng)期利益的個(gè)人或團(tuán)體。 2019年AAAI / EAAI杰出教育家獎(jiǎng)?lì)C給佐治亞理工學(xué)院的Ashok Goel,以表彰他持續(xù)卓越的教學(xué)貢獻(xiàn),利用AI技術(shù)來(lái)教授AI技術(shù)的創(chuàng)新,采用科學(xué)實(shí)驗(yàn)和獎(jiǎng)學(xué)金來(lái)評(píng)估和改進(jìn)AI的教學(xué)方法,以及他向整個(gè)社區(qū)分享的大量資源。該獎(jiǎng)項(xiàng)由AAAI和人工智能教育進(jìn)展研討會(huì)(Symposium on Educational Advances in Artificial Intelligence)聯(lián)合贊助。
2019年羅伯特·S·恩格爾莫爾紀(jì)念獎(jiǎng)
羅伯特·S·恩格爾莫爾(Robert S. Engelmore)紀(jì)念獎(jiǎng)由IAAI-19和AI Magazine贊助,由IAAI-19主席Karen Myers和AI Magazine主編Ashok Goel主持。 該獎(jiǎng)項(xiàng)于2003年設(shè)立,旨在紀(jì)念羅伯特·S·恩格爾博士為AAAI、AI雜志和AI應(yīng)用社區(qū)的卓越貢獻(xiàn),以及他對(duì)應(yīng)用AI期刊的貢獻(xiàn)。 2019年的獎(jiǎng)項(xiàng)將頒發(fā)給南加州大學(xué)的Milind Tambe團(tuán)隊(duì),以表彰他們?cè)诙嘀悄荏w系統(tǒng)領(lǐng)域的杰出貢獻(xiàn),以及在解決具有重大社會(huì)意義的問(wèn)題上的應(yīng)用。
Feigenbaum獎(jiǎng)
AAAI Feigenbaum獎(jiǎng)旨在表彰和鼓勵(lì)通過(guò)計(jì)算機(jī)科學(xué)實(shí)驗(yàn)方法取得的杰出的AI研究進(jìn)展。 2019年的AAAI Feigenbaum獎(jiǎng)項(xiàng)授予加州大學(xué)伯克利分校的Stuart Russell,以表彰他通過(guò)創(chuàng)新和概率知識(shí)表示,推理和學(xué)習(xí)的成就對(duì)AI領(lǐng)域的具有廣泛影響力貢獻(xiàn)。 Feigenbaum獎(jiǎng)由Feigenbaum Nii基金會(huì)資助。
-
人工智能
+關(guān)注
關(guān)注
1792文章
47482瀏覽量
239162 -
論文
+關(guān)注
關(guān)注
1文章
103瀏覽量
14969 -
強(qiáng)化學(xué)習(xí)
+關(guān)注
關(guān)注
4文章
268瀏覽量
11273
原文標(biāo)題:AAAI 2019最佳論文公布,CMU、斯坦福、MIT上榜
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論