收下这 16 篇最新论文,周会基本不用愁
在碎片化閱讀充斥眼球的時代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。
在這個欄目里,你會快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第 113?篇文章@tobiaslee 推薦
#Attention Mechanism
本文是北京大學(xué)孫栩老師組發(fā)表在 EMNLP 2018 的作品。文章通過實驗發(fā)現(xiàn),在利用 Seq2Seq 模型解決 Multi-Label Classific(MLC)問題時,傳統(tǒng) Attention 機(jī)制起到的貢獻(xiàn)較小。原因在于傳統(tǒng) Attention 機(jī)制關(guān)注的是 word-level,而分類任務(wù)往往依賴著整個句子的 salient meaning。
作者通過在 LSTM 產(chǎn)生的 word-level 上的表示進(jìn)行多級的 Dilated Convolution 來捕獲更高級別的 semantic unit(例如 phrases)的信息,進(jìn)而增強(qiáng) Seq2Seq 的效果。進(jìn)一步地,作者將高層的 attention 和詞級別的 attention 做了整合,提出 Hybrid Attention 來兼顧各個級別表示的信息。文章提出的模型在 RCV1-v2 和 Ren-CECps 上對比的 Seq2Seq 模型都有較大的性能提升。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2444
源碼鏈接
https://github.com/lancopku/SU4MLC
@xwzhong 推薦
#Text Classification
本文是 fast.ai 和 Aylien 發(fā)表于 ACL 2018 的工作。遷移學(xué)習(xí)在 CV 領(lǐng)域已得到廣泛應(yīng)用,但 NLP 領(lǐng)域的現(xiàn)有方法通常仍需從頭開始訓(xùn)練。在 ImageNet 的啟發(fā)下,本文提出了基于微調(diào)的通用語言模型——ULMFiT,該模型可應(yīng)用于 NLP 領(lǐng)域的各類任務(wù),未來也可以嘗試將預(yù)訓(xùn)練用于不同的 NLP 任務(wù)中。論文在六個文本分類數(shù)據(jù)集上驗證了本文模型的有效性,此外,作者在實驗中采用的多種 trick 也頗具借鑒意義。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/1832
源碼鏈接
http://nlp.fast.ai/category/classification.html
@icaruss 推薦
#Open-domain Chatbot
本文是微軟發(fā)表于 NIPS 2018 的工作,這是一篇關(guān)于增加開放域聊天機(jī)器人多樣性的文章。作者運(yùn)用了 GAN 和 dual learning 的思想,針對原始的 MMI reranking 方法有所提高。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2447
@paperweekly 推薦
#Word Embeddings
本文是香港中文大學(xué)發(fā)表于 IJCAI 2018 的工作。為了更好地捕捉詞匯固有語義和句法信息,本文提出了兩種基于詞匯共現(xiàn)和奇異值分解的嵌入模型。本文對兩種語義關(guān)系進(jìn)行建模,一種是加和操作,另一種是投影操作,從而確保單詞向量位于特定的超平面中,以清晰地分離具有不同性質(zhì)的單詞。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2416
@paperweekly 推薦
#Dialog Systems
本文是劍橋大學(xué)和 PolyAI 發(fā)表于 EMNLP 2018 的工作,被評為 EMNLP 2018 最佳論文。論文提出了一個多領(lǐng)域綠野仙蹤實驗型數(shù)據(jù)集,這是一個具有標(biāo)注的真人對話數(shù)據(jù)集,涵蓋多個領(lǐng)域和主題。該數(shù)據(jù)集包含至少一萬組對話,遠(yuǎn)超其他特定領(lǐng)域任務(wù)型對話研究所用的數(shù)據(jù)集。此外,本文還介紹了該數(shù)據(jù)集的構(gòu)建過程、數(shù)據(jù)結(jié)構(gòu)分析以及標(biāo)注方法。作者通過在三個不同領(lǐng)域中進(jìn)行實驗對比,證明所構(gòu)建數(shù)據(jù)集具有良好表現(xiàn)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2428
源碼鏈接
https://github.com/budzianowski/multiwoz
@paperweekly 推薦
#Machine Reading Comprehension
本文是百度發(fā)表于 ACL 2018 的工作,論文利用強(qiáng)化學(xué)習(xí)的方法對串行的多文檔閱讀理解模塊進(jìn)行聯(lián)合訓(xùn)練。作者提出了一種新的答案選擇模型,它結(jié)合了基于注意力相關(guān)矩陣組合所抽取的全部候選信息。本文模型在兩個具有挑戰(zhàn)性的開放領(lǐng)域閱讀理解數(shù)據(jù)集 Quasar-T 和Search QA 上大幅超出了目前的最優(yōu)結(jié)果。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2355
@Kralkatorrik 推薦
#Face Recognition
本文來自北京郵電大學(xué)鄧偉洪老師組,該論文是目前人臉識別領(lǐng)域的最新綜述,和之前的人臉識別綜述相比,這篇文章的重點(diǎn)是由深度學(xué)習(xí)引領(lǐng)的人臉識別突破。文章總結(jié)了近年來主流的深度網(wǎng)絡(luò)結(jié)構(gòu),基于歐氏/余弦距離損失函數(shù)改進(jìn)以及各種人臉圖像處理的方法。此外還介紹了數(shù)據(jù)集、數(shù)據(jù)噪聲影響分析、人臉識別場景等相關(guān)問題。從文章引用的近 250 篇文獻(xiàn)中,可以充分了解當(dāng)前人臉識別領(lǐng)域的現(xiàn)狀。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2432
@jamiechoi 推薦
#Image Captioning
本文是一篇來自莫道克大學(xué)的綜述文章,論文全面回顧了當(dāng)前基于深度學(xué)習(xí)的 Image Captioning 技術(shù),討論分析了各類方法的優(yōu)勢和局限性,還全面分析了 Image Captioning 任務(wù)常用的主流數(shù)據(jù)集和評估指標(biāo)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2401
@Kralkatorrik 推薦
#Face Recognition
本文是來自 BMVC 2018 的一篇文章,論文在 Center Loss 的基礎(chǔ)上增加了額外的約束,使學(xué)習(xí)到的特征相比 Center Loss 具有更大的類間距離和更小的類內(nèi)距離。論文提供源碼,但沒有提供預(yù)訓(xùn)練模型。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2452
源碼鏈接
https://github.com/kjanjua26/Git-Loss-For-Deep-Face-Recognition
@Fiersies 推薦
#Semantic Segmentation
本文是清華大學(xué)、南開大學(xué)和曠視科技發(fā)表于 ECCV 2018 的工作,論文通過整合顯著性檢測和圖劃分算法,提出一種新型弱監(jiān)督學(xué)習(xí)方法加速語義分割發(fā)展。其最大亮點(diǎn)是既利用每個顯著性實例的內(nèi)在屬性,又挖掘整個數(shù)據(jù)集范圍內(nèi)不同顯著性實例的相互關(guān)系。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2378
@Aspirinkb 推薦
#Neural Networks
本文是 Google 發(fā)表于 CVPR 2018 的工作,論文介紹了一種量化卷積神經(jīng)網(wǎng)絡(luò)的方法,使用最大值、最小值均勻量化權(quán)重和特征圖。作者詳細(xì)介紹了實現(xiàn)的細(xì)節(jié),量化后的運(yùn)算只需要整數(shù)運(yùn)算和移位運(yùn)算,能夠加快推理速度,尤其適用于在 FPGA 等不擅長浮點(diǎn)數(shù)運(yùn)算硬件中實現(xiàn)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2433
源碼鏈接
https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/quantize
@zhangjun 推薦
#Hyperparameter Optimization
本文來自 arXiv 2018,文章研究的內(nèi)容是如何利用推薦系統(tǒng)協(xié)同過濾的思想來解決機(jī)器學(xué)習(xí)問題中算法選擇和超參數(shù)優(yōu)化的問題。文中將推薦系統(tǒng)的評分矩陣概念類比到機(jī)器學(xué)習(xí)任務(wù)中,user-item-rating 矩陣在該任務(wù)中分別表示 dataset-algorithm-error,通過矩陣分解技術(shù),預(yù)測 dataset-algorithm-error 的空白值,來幫助新 dataset 選擇合適的 model。借用同一思想,構(gòu)造了 runtime 矩陣,可預(yù)測 model 在 new dataset 上的 runtime。
本文屬于一種 meta-learning 方法,整體來說很有新意,方法的有效性也在大量實驗中得到了驗證。這種類似 top-K 推薦的問題都是可以利用協(xié)同過濾來解決的。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2424
源碼鏈接
https://github.com/udellgroup/oboe
@JasonZHM 推薦
#Weight Pruning
本文來自雪城大學(xué)、佛羅里達(dá)國際大學(xué)和東北大學(xué),論文提出了一種使用 ADMM 方法對神經(jīng)網(wǎng)絡(luò)權(quán)重進(jìn)行剪枝的通用方法,使得 LeNet、AlexNet 等網(wǎng)絡(luò)在 MNIST、ImageNet 等數(shù)據(jù)集上的參數(shù)得到了大幅壓縮。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2443
源碼鏈接
https://github.com/KaiqiZhang/admm-pruning
@paperweekly 推薦
#Recommender Systems
本文是 LinkedIn 發(fā)表于 CIKM 2018 的工作。論文介紹了作者團(tuán)隊在 LinkedIn Recruiter 上應(yīng)用深度學(xué)習(xí)和表示學(xué)習(xí)模型所取得的一些成果,即如何更高效精準(zhǔn)地匹配候選人與招聘單位的招聘需求。本文創(chuàng)新點(diǎn)之一是引入了知識圖譜對稀疏實體進(jìn)行語義表示,其次則是基于語義表示采用擴(kuò)展的深度語義匹配模型對人才匹配結(jié)果進(jìn)行排序。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2449
@xinqin 推薦
#Transfer Learning
本文來自中國地質(zhì)大學(xué)。轉(zhuǎn)移學(xué)習(xí)和集成學(xué)習(xí)是解決訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)分布不均勻問題的新趨勢,本文設(shè)計一個集成遷移學(xué)習(xí)框架,并在該框架中組裝提出的三種集成遷移學(xué)習(xí)算法。在集成學(xué)習(xí)的幫助下,提出的遷移學(xué)習(xí)算法將有用的實例從源域遷移到目標(biāo)域,以提高分類精度。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2383
@paperweekly?推薦
#Explainable Recommendation
本文是上海交大和弗吉尼亞大學(xué)發(fā)表于 SIGIR 2018 的工作。論文提出了一個用于可解釋推薦任務(wù)的多任務(wù)學(xué)習(xí)方法,通過聯(lián)合張量分解將用戶、產(chǎn)品、特征和觀點(diǎn)短語映射到同一表示空間。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2421
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙
?禮物領(lǐng)取方式?
推薦人請根據(jù)論文詳情頁底部留言
添加小助手領(lǐng)取禮物
想要贏取以上周邊好禮?
點(diǎn)擊閱讀原文即刻推薦論文吧!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
??又為寫作思路熬到禿頭?16篇最新論文打包送你
??收下這12篇最新論文,煉丹不愁沒靈感
??暑假沒人帶怎么辦?還有我們?yōu)槟阃扑]論文
??本周份AI論文推薦新鮮出爐!真的很skr了~
??想了解推薦系統(tǒng)最新進(jìn)展?請收好這些篇論文
正經(jīng)煉丹師如何完美安排國慶長假?
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢??答案就是:你不認(rèn)識的人。
總有一些你不認(rèn)識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個,讓知識真正流動起來。
??來稿標(biāo)準(zhǔn):
? 稿件確系個人原創(chuàng)作品,來稿需注明作者個人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請在投稿時提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會添加“原創(chuàng)”標(biāo)志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請單獨(dú)在附件中發(fā)送?
? 請留下即時聯(lián)系方式(微信或手機(jī)),以便我們在編輯發(fā)布時和作者溝通
?
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 獲取更多論文推薦
總結(jié)
以上是生活随笔為你收集整理的收下这 16 篇最新论文,周会基本不用愁的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 奖金+大赛入门,来参加我们的论文有奖复现
- 下一篇: 论文落地 101:算法工程化的那些坑