本周最热 AI 论文大集合,还不快一键收藏?
在碎片化閱讀充斥眼球的時(shí)代,越來越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第 97?篇文章@NoaRicky 推薦
#Machine Reasoning
本文是斯坦福大學(xué)發(fā)表于 ICLR 2018 的工作,論文解決了樹狀結(jié)構(gòu)網(wǎng)絡(luò)在機(jī)器閱讀、機(jī)器推理問題中雖有良好表現(xiàn),但模型訓(xùn)練時(shí)間過長的問題,同時(shí)幸運(yùn)的是在精確度方面勝過了以往所有模型。它其中一名作者是斯坦福 CS224n 授課老師 Manning 教授,該文章模型已被 Stanford NLP 團(tuán)隊(duì)實(shí)現(xiàn)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2207
源碼鏈接
https://github.com/stanfordnlp/mac-network
@guohao916 推薦
#Machine Reading Comprehension
本文是斯坦福大學(xué)發(fā)表于 ACL 2018 的工作,論文在原來的 SQuAD(SQuAD 1.1)的十萬個(gè)問題 - 答案對(duì)的基礎(chǔ)上,SQuAD 2.0 中新增了超過五萬個(gè)新增的、由人類眾包者對(duì)抗性地設(shè)計(jì)的無法回答的問題。執(zhí)行 SQuAD 2.0 閱讀理解任務(wù)的模型不僅要能夠在問題可回答時(shí)給出答案,還要判斷哪些問題是閱讀文本中沒有材料支持的,并拒絕回答這些問題。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2180
源碼鏈接
https://bit.ly/2rDHBgY
Learning-to-Ask: Knowledge Acquisition via 20 Questions
@yihongchen 推薦
#Knowledge Discovery
本文是清華大學(xué)、微軟和阿里巴巴聯(lián)合發(fā)表于 KDD 2018 的工作。為機(jī)器賦能知識(shí)是讓機(jī)器具有智能的一種重要手段,通過提問獲取知識(shí)是一種常見的方法,但如何保證提問的效率和有效性是一個(gè)核心問題,本文針對(duì)這些問題提出了一種基于深度強(qiáng)化學(xué)習(xí)和矩陣分解的 Learning-to-Ask 方法,并用貝葉斯方法表示知識(shí)來增強(qiáng)魯棒性。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2174
@guohao916 推薦
#Question Answering
本文將段落級(jí)的神經(jīng) QA 模型擴(kuò)展到篇章級(jí)。在訓(xùn)練階段采樣了多個(gè)段落,并改造了目標(biāo)函數(shù)使之產(chǎn)生全局正確的輸出。當(dāng) QA 模型的輸入為篇章時(shí),處理方法可分為兩類:流水線方法首先選擇一個(gè)最相關(guān)的段落再預(yù)測答案跨度;基于置信的方法將模型使用在多個(gè)段落上返回最高的置信值?;谥眯诺姆椒▽?duì)于段落選擇的錯(cuò)誤具有強(qiáng)魯棒性,然而這要求模型對(duì)每一個(gè)段落計(jì)算出較精確的置信值。
本文將上述兩個(gè)思路相結(jié)合,使流水線方法能夠計(jì)算出各個(gè)段落更加精確的置信值。首先使用 TF-IDF 選擇用于訓(xùn)練和測試的段落,針對(duì)語料的遠(yuǎn)程監(jiān)督噪聲較大的問題,將目標(biāo)函數(shù)定義為所有可能的答案位置的邊緣值;最后通過使用一個(gè)共享標(biāo)準(zhǔn)化目標(biāo)函數(shù),使答案選擇基于篇章中各個(gè)段落的比較,有效提高了模型的魯棒性。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2179
源碼鏈接
https://github.com/allenai/document-qa
@kezewang 推薦
#Object Detection
近年來,隨著互聯(lián)網(wǎng)的快速發(fā)展和計(jì)算能力的提升,受益于大規(guī)模訓(xùn)練數(shù)據(jù)的深度學(xué)習(xí)技術(shù)取得了突破性的進(jìn)步。物體檢測作為計(jì)算機(jī)視覺領(lǐng)域的一個(gè)經(jīng)典任務(wù),檢測精度取得了巨大的提升。以候選區(qū)域?yàn)榛A(chǔ)的物體檢測網(wǎng)絡(luò)對(duì)一張輸入的圖像提取大量的候選物體區(qū)域,并對(duì)這些區(qū)域進(jìn)行類別標(biāo)注和位置回歸,提升了物體檢測的識(shí)別精度和識(shí)別速度。然而,神經(jīng)網(wǎng)絡(luò)的檢測效果極其依賴訓(xùn)練網(wǎng)絡(luò)的標(biāo)注樣本數(shù)據(jù),因此,如何利用大規(guī)模的未標(biāo)注或是少量標(biāo)注的數(shù)據(jù)有效訓(xùn)練網(wǎng)絡(luò),提升其檢測精度是亟待解決的問題。?
為了使用更少的標(biāo)注數(shù)據(jù)訓(xùn)練出高精度的檢測模型,一般需要解決以下技術(shù)問題:?
1. 在保證模型效果的同時(shí),盡量減少人工樣本標(biāo)注。通常的神經(jīng)網(wǎng)絡(luò)訓(xùn)練,非常依賴大量人工標(biāo)注的數(shù)據(jù)集,而比起其他視覺任務(wù)(例如,圖像分類和動(dòng)作識(shí)別),標(biāo)注物體需要提供圖片中所有物體的類別標(biāo)簽和物體所處區(qū)域的邊框坐標(biāo)。因此,對(duì)圖像進(jìn)行人工標(biāo)注非常耗時(shí)耗力,發(fā)展自動(dòng)標(biāo)注無標(biāo)簽數(shù)據(jù)的方法是減少人工標(biāo)注負(fù)擔(dān)的關(guān)鍵步驟。?
2. 挖掘能夠顯著提高分類器表現(xiàn)的特殊訓(xùn)練樣本。現(xiàn)有的物體檢測數(shù)據(jù)集通常包含了絕大多數(shù)普通的“簡單”樣本和少量有益的“困難”樣本(即,富含各種光照,變形,遮擋和類內(nèi)變化的信息量)。因?yàn)樗麄兎拈L尾分布,“困難”的例子是罕見的,為了利用這些能夠最有效訓(xùn)練神經(jīng)網(wǎng)絡(luò)的“困難”樣本,需要能夠從大量樣本中將其識(shí)別出來。?
3. 抑制壞樣本的負(fù)面影響。一些訓(xùn)練樣本(例如,離群點(diǎn)或噪聲樣本)可能會(huì)使模型發(fā)生偏移,在訓(xùn)練時(shí)排除被數(shù)據(jù)集中的標(biāo)注者標(biāo)記為“混亂”的樣本后,訓(xùn)練得到的物體檢測性能可以得到大幅度的改進(jìn)和提高。?
為克服上述現(xiàn)有技術(shù)存在的不足,我們的研究動(dòng)機(jī)在于提供一種基于自監(jiān)督過程改進(jìn)主動(dòng)學(xué)習(xí)的通用物體檢測系統(tǒng)及方法,以結(jié)合樣本挖掘技術(shù)和深度學(xué)習(xí)物體檢測技術(shù),利用少量標(biāo)注的樣本和海量的未標(biāo)注樣本聯(lián)合訓(xùn)練提升模型的檢測性能以提高檢測精度。 同時(shí),可在減少大量的人力物力、節(jié)約成本基礎(chǔ)上實(shí)現(xiàn)通用物體檢測目的。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2177
源碼鏈接
https://github.com/yanxp/SSM
@hsu 推薦
#Semantic Segmentation
本文是 Attention U-Net 的前序文章,論文提出了 Attention Gate,和主流方法一樣使用的是 soft-attention 機(jī)制。文章將 Attention-Gate 應(yīng)用于超聲圖像的分類問題,包括若干器官。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2198
源碼鏈接
https://github.com/ozan-oktay/Attention-Gated-Networks
@yanjoy 推薦
#Model Compression
本文是西蒙弗雷澤大學(xué)發(fā)表于 CVPR 2018 的工作,論文提出先剪枝后量化的壓縮框架,并且自動(dòng)優(yōu)化超參數(shù)。結(jié)果在 GoogLeNet 上有 10x 壓縮,在 ResNet-50 有 15x 壓縮,并不降低準(zhǔn)確率。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2181
@xuehansheng 推薦
#bioinformatics
本文將深度學(xué)習(xí)應(yīng)用到多網(wǎng)絡(luò)融合的過程中,并針對(duì)蛋白質(zhì)功能預(yù)測的網(wǎng)絡(luò)結(jié)構(gòu)特點(diǎn),提出了一種基于多模式深度自動(dòng)編碼器的網(wǎng)絡(luò)融合方法——deepNF,從多個(gè)異構(gòu)交互網(wǎng)絡(luò)中提取蛋白質(zhì)的高級(jí)特征。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2172
源碼鏈接
https://github.com/VGligorijevic/deepNF
@paulpeng 推薦
#Neural Networks
本文來自 Google,論文提出了一種大規(guī)模分布式神經(jīng)網(wǎng)絡(luò)的的改進(jìn)方法。具體來說,作者提出了一種 distillation 模型的變種,一方面考慮是支持大規(guī)模數(shù)據(jù)的并行化處理,另一方面考慮是為預(yù)測模型提供了一種可重復(fù)的方法。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2205
@xuzhou 推薦
#Recommender Systems
本文是上海交大、微軟亞洲研究院和香港理工大學(xué)聯(lián)合發(fā)表于 CIKM 2018 的工作。為了解決協(xié)同過濾的稀疏性和冷啟動(dòng)問題,研究人員通常利用社交網(wǎng)絡(luò)或項(xiàng)目屬性等輔助信息來提高推薦效果。本文將知識(shí)圖譜應(yīng)用到推薦系統(tǒng)中,是一個(gè)很新穎的方法,給推薦系統(tǒng)提供了一個(gè)全新的思路。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2201
源碼鏈接
https://github.com/hwwang55/RippleNet
@filterc 推薦
#Response Generation
本文是清華大學(xué)和 UCSB 發(fā)表于 ACL 2018 的工作,論文旨在教會(huì)機(jī)器生成有情緒的回答,比如當(dāng)用戶傷心的時(shí)候,機(jī)器回答一定不能很開心。這項(xiàng)工作的難點(diǎn)在于缺少大規(guī)模標(biāo)注好的情感訓(xùn)練集,以及如何控制生成回答的情感?,F(xiàn)有的情感數(shù)據(jù)集對(duì)深度模型都太小,并且只有有限的幾個(gè)分類(生氣、開心,或者正面、負(fù)面)。?
本文解決方案如下:1. 使用含有 emoji(選擇了 64 種)的 Twitter 數(shù)據(jù)來做自動(dòng)情感標(biāo)注(規(guī)模:600K) 2. 在生成回答時(shí),根據(jù)給定的 emoji 來生成不同情感的回答
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2199
源碼鏈接
https://github.com/Claude-Zhou/MojiTalk
@godweiyang 推薦
#Constituency Parsing
本文提出了一種不同于傳統(tǒng)方法的成分句法分析方法。傳統(tǒng)的句法分析器需要預(yù)處理出語法規(guī)則集合,然后利用語法規(guī)則來進(jìn)行各種句法分析,這類方法的弊端有很多,主要有三點(diǎn):
1. 語法規(guī)則集合構(gòu)造的好壞直接影響到分析效果的好壞;
2. 不僅如此,利用語法規(guī)則的方法時(shí)間復(fù)雜度高,因?yàn)槊看味家闅v一遍語法規(guī)則集合來決定每個(gè)短語采用哪一條語法規(guī)則;
3. 還有一種弊端就是利用語法規(guī)則的方法無法產(chǎn)生新的產(chǎn)生式,也就是說如果測試集中的語法規(guī)則沒有在訓(xùn)練集中出現(xiàn)過,那么是無法預(yù)測出來的。
本文提出的模型不需要預(yù)先構(gòu)造出語法規(guī)則集合,只需要預(yù)測出每個(gè)短語的label和 split 就行了,這樣就能構(gòu)造出一棵完整的句法樹。該模型分為編碼與解碼兩部分,其中編碼部分就是利用雙向 LSTM 將每個(gè)詞和短語表示成向量,解碼部分提出了兩種模型,一種是 chart 模型,類似于 CKY 算法,另一種是 top-down 模型,就是自頂向下的貪心算法。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2098
源碼鏈接
https://github.com/mitchellstern/minimal-span-parser
@xuehansheng 推薦
#Network Embedding
本文是斯坦福大學(xué)發(fā)表于 KDD18 的工作,論文提出了一種通過利用熱小波擴(kuò)散模式通過低維嵌入來表示每個(gè)節(jié)點(diǎn)的網(wǎng)絡(luò)鄰域的方法——GraphWave。 GraphWave 不是在手工選擇的特征上進(jìn)行訓(xùn)練,而是以無人監(jiān)督的方式學(xué)習(xí)這些嵌入。文章在數(shù)學(xué)上證明具有相似網(wǎng)絡(luò)鄰域的節(jié)點(diǎn)將具有類似的 GraphWave 嵌入,即使這些節(jié)點(diǎn)可能駐留在網(wǎng)絡(luò)的非常不同的部分中。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2204
源碼鏈接
https://github.com/snap-stanford/graphwave
@xuzhou 推薦
#Network Embedding
ANE 是發(fā)表在 AAAI 2018 上的用對(duì)抗生成網(wǎng)絡(luò)學(xué)習(xí)網(wǎng)絡(luò)表示的文章?,F(xiàn)有的網(wǎng)絡(luò)表示方法 Deep Walk、LINE、node2vec 等保留了網(wǎng)絡(luò)的一階、二階或者更高階的相似性,但這些方法都缺少增加 embedding 魯棒性的限制。本文通過對(duì)抗訓(xùn)練的規(guī)則來正則化表示學(xué)習(xí)過程。
ANE 包含兩個(gè)部分:結(jié)構(gòu)保留、對(duì)抗學(xué)習(xí)。在結(jié)構(gòu)保留部分,本文實(shí)驗(yàn)中分別使用了 Inductive DeepWalk 和 Denoising Auto encoder 兩種模型;對(duì)抗學(xué)習(xí)部分主要是學(xué)習(xí)穩(wěn)定、魯棒的網(wǎng)絡(luò)表示,使結(jié)構(gòu)保留部分生成的網(wǎng)絡(luò)表示服從先驗(yàn)(prior)分布。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2164
@Molly 推薦
#Person Re-identification
本文是中國科學(xué)院大學(xué)發(fā)表于 CVPR 2018 的工作,論文介紹了一種行人遮擋情況下的重識(shí)別方法。在實(shí)際應(yīng)用中,行人互相遮擋或者被畫面中其他物體遮擋,往往會(huì)導(dǎo)致模型表現(xiàn)下降。這篇文章提出的方法在消耗較少計(jì)算資源的情況下,可以得到更好的結(jié)果。?
文章提出了一種框架,先使用 FCN 提取特征,再使用 Deep Spatial Feature Reconstruction 方法計(jì)算特征的相似度。即使用完整行人的特征的線性組合來表示部分行人的線性特征,如果誤差很小,則認(rèn)為是同一個(gè)人。否則不是同一個(gè)人。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2183
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙
?禮物領(lǐng)取方式?
推薦人請(qǐng)根據(jù)論文詳情頁底部留言
添加小助手領(lǐng)取禮物
想要贏取以上周邊好禮?
點(diǎn)擊閱讀原文即刻推薦論文吧!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
??暑假?zèng)]人帶怎么辦?還有我們?yōu)槟阃扑]論文
??本周份AI論文推薦新鮮出爐!真的很skr了~
??叮!請(qǐng)查收本周份「知識(shí)圖譜」專題論文解讀
還在熬夜憋思路?這12篇最新論文打包送給你
本頂會(huì)論文輪番炸場,本周哪些論文最值得讀?
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 加入社區(qū)刷論文
總結(jié)
以上是生活随笔為你收集整理的本周最热 AI 论文大集合,还不快一键收藏?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 细水长flow之NICE:流模型的基本概
- 下一篇: 漫谈概率 PCA 和变分自编码器