每周论文清单:知识图谱,文本匹配,图像翻译,视频对象分割
在碎片化閱讀充斥眼球的時(shí)代,越來越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第?31?篇文章[ 自然語言處理 ]
@jerryshi 推薦
#Knowledge Graph
本文對當(dāng)下流行的 Knowledge Graph Eembedding 進(jìn)行匯總,主要介紹了兩大類,Translational Distance Models 和 Semantic Matching Models,簡要敘述了每中方式下的算法。最后又給出了 KG Embedding 的一些應(yīng)用,包括 KG 內(nèi)部知識補(bǔ)全及外部的關(guān)系抽取、QA、推薦等。
Parallel WaveNet: Fast High-Fidelity Speech Synthesis@wuhecong 推薦
#Deep Learning
DeepmMind 17 年 11 月份的論文,wavenet 的改良版本,實(shí)現(xiàn)了并行文本轉(zhuǎn)語音。可以和百度的 Deep Voice 3 對比一下。
Deconvolutional Latent-Variable Model for Text Sequence Matching
@zhangjianhai 推薦
#Sentence Matching
利用 Convolution encoder - Deconvolution decoder 學(xué)習(xí)句子的語義表示,將 cnn-deconv 框架用于文本匹配任務(wù)中,如 Text Entailment、Paraphrase Identification 任務(wù)中,generation 和 discriminative 共同訓(xùn)練,提升特定任務(wù)的效果。
該論文方法優(yōu)勢是可以利用 unlabeled 數(shù)據(jù)幫助學(xué)習(xí)句子表示,當(dāng)數(shù)據(jù)不足時(shí)非常有效,隨著標(biāo)注數(shù)據(jù)的增加,優(yōu)勢逐漸減小。
Exploring the Effectiveness of Convolutional Neural Networks for Answer Selection in End-to-End Question Answering@longquan 推薦
#QA System
本文嘗試探索了從整個(gè)端到端問答系統(tǒng)的流程的角度去衡量卷積神經(jīng)網(wǎng)絡(luò)對于答案選擇任務(wù)的有效性。使用的數(shù)據(jù)集是標(biāo)準(zhǔn)的 TrecQA 數(shù)據(jù)集。
Attention-based LSTM for Aspect-level Sentiment Classification@applenob 推薦
#Sentiment Classification
使用基于 Attention 的 LSTM 解決細(xì)粒度的情感分析問題,在 SemEval 2014 上取得 state-of-art 的結(jié)果。
Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks@Aidon 推薦
#Neural Networks
文章提出一種加速 DNNs 的新方法(WAE: wavelet-like auto-encoder)來克服現(xiàn)有方法中存在的一個(gè)主要問題:如何保證網(wǎng)絡(luò)加速而又不損失網(wǎng)絡(luò)性能。
MAE 借助小波的思想,在 encoding 階段利用 CNNs 分別提取圖像的低頻分量和高頻分量,在 decoding 階段利用這兩個(gè)分量恢復(fù)出原始圖像。
訓(xùn)練好 MAE 之后,可以用于提取圖像的低頻分量和高頻分量,比如在圖像分類任務(wù)中,將低頻分量輸入到標(biāo)準(zhǔn)的分類 DNNs(如 VGG-16,ResNet)中,然后與高頻分量融合后一起用于分類。
這里提高效率的關(guān)鍵在于,相比于原始圖像,提取的低頻分量和高頻分量都是低分率(原始圖像的 1/4)的。
Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning@snowwalkerj 推薦
#Face Recognition
在不直接接觸模型和訓(xùn)練樣本的前提下,只使用極少量的“污染樣本”來迷惑模型,達(dá)到攻擊(偽裝)指定類別的目的。攻擊者可以通過佩戴特定的裝飾來達(dá)到把自己偽裝成某個(gè)特定目標(biāo)的目的。
@corenel 推薦
#Unsupervised Learning
本文來自 Facebook AI Research,提出了一種利用單一模型來 ensemle 不同 encoded features 來進(jìn)行 self=training 的方法,就結(jié)果上來說很不錯(cuò),值得一看。
@duinodu 推薦
#Image-to-image Translation
在很多 image-to-image 問題中,one-to-many 是大部分情況,而一般方法比如 pix2pix,僅僅能產(chǎn)生 one-to-one 的結(jié)果,但似乎 one-to-many 更符合常理。比如一張灰色的圖,對應(yīng)的彩色圖片應(yīng)該有很多種方式,不僅僅是一種。
困難在于,GAN 總是會(huì)讓 G 產(chǎn)生某幾種固定的模式輸出,而如果簡單地在輸入加隨機(jī)噪聲,G 會(huì)在 D 的判別下,忽略隨機(jī)噪聲的作用,還是會(huì)有 mode collapse 問題。
文章提出一種 bicycle 的方式,顯式地對隱含變量 z 進(jìn)行表示,處理 one-to-many 中的 mode collapse 問題。
Video Object Segmentation with Re-identification@chenhong 推薦
#Video Object Segmentation
傳統(tǒng)的視頻分割方法依賴于生成掩膜的時(shí)間連續(xù)性,但是無法處理目標(biāo)丟失或目較大的位移等情況。
論文為了克服這些問題,提出視頻對象分割與重新識別( Video Object Segmentation with Re-identification,VSReID),包括掩碼生成模塊和 ReID 模塊(Person re-identification,ReID,既給定一個(gè)監(jiān)控行人圖像,跨設(shè)備檢索行人的圖像)。
前者通過 flow warping 生成初始化概率圖,后者自適應(yīng)匹配檢索丟失的目標(biāo)實(shí)體。通過通過兩個(gè)模塊的迭代應(yīng)用,本文的模型在 DAVIS-2017 取得冠軍,驗(yàn)證了算法的性能。
本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語言處理、計(jì)算機(jī)視覺、人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點(diǎn)擊「閱讀原文」即刻加入社區(qū)!
我是彩蛋?
?解鎖新功能:熱門職位推薦!
PaperWeekly小程序升級啦
今日arXiv√猜你喜歡√熱門職位√
找全職找實(shí)習(xí)都不是問題
?
?解鎖方式?
1. 識別下方二維碼打開小程序
2. 用PaperWeekly社區(qū)賬號進(jìn)行登陸
3. 登陸后即可解鎖所有功能
?職位發(fā)布?
請?zhí)砑有≈治⑿?#xff08;pwbot01)進(jìn)行咨詢
?
長按識別二維碼,使用小程序
*點(diǎn)擊閱讀原文即可注冊
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結(jié)
以上是生活随笔為你收集整理的每周论文清单:知识图谱,文本匹配,图像翻译,视频对象分割的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: GAN做图像翻译的一点总结
- 下一篇: 融合 MF 和 RNN 的电影推荐系统