重磅!Google学术发布2019年最有影响力的7篇论文!
點(diǎn)上方藍(lán)字計(jì)算機(jī)視覺(jué)聯(lián)盟獲取更多干貨
在右上方?···?設(shè)為星標(biāo)?★,與你不見(jiàn)不散
來(lái)源于聯(lián)盟博士翻譯總結(jié)
正文共:7179?字?21?圖 ? ? ? ? ? ? ?? ?預(yù)計(jì)閱讀時(shí)間:?18?分鐘
谷歌學(xué)術(shù)跟蹤近四億份學(xué)術(shù)論文和其他學(xué)術(shù)文獻(xiàn)的引用信息,Google Scholar是世界上最大的數(shù)據(jù)庫(kù),旨在衡量近期出版物的“知名度和影響力”
本次最新谷歌學(xué)術(shù)頂級(jí)影響力排行榜前7名,論文內(nèi)容涵蓋人工智能、深度學(xué)習(xí)、引力波...
2019年8月2日,剛剛發(fā)布的Google Scholar排名最高引用的出版物揭示了圍繞人工智能(AI)展開(kāi)的研究。
在“自然”雜志中被引用次數(shù)最多的五篇論文中,其中三篇與人工智能有關(guān),其中一篇與超過(guò)16,000篇引文相關(guān)。
隨著世界頂級(jí)人工智能會(huì)議之一 - 計(jì)算機(jī)視覺(jué)與模式識(shí)別(CVPR)的IEEE / CVF會(huì)議 - 的出版物今年首次登上今年的十大期刊。其中一篇論文在過(guò)去的三年中,已經(jīng)引用了25,256次引用。
以下是世界上最具影響力的期刊發(fā)表的被引用次數(shù)最多的文章:
1.?"Deep Residual Learning for Image Recognition"?(2016)
Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition
25,256 citations
Of the 100 top-ranked journals this year, five are AI conference publications. This particular journal, which made a huge leap in the rankings this year, has three articles with more than 10,000 citations each – a feat not matched by any other journal.
As Synced's Fangyu Cai?points out, "It should come as no surprise … that AI conferences are publishing so prodigiously – in recent years they have evolved from low-key academic gatherings into extravagant multimedia events attracting thousands and serving as showcases for major innovations and breakthroughs in AI research, development, and deployment."
This particular article was written by a research team from?Microsoft?– a company that achieved a?significant increase?in high-quality research output in 2018, as tracked by the Nature Index.
聯(lián)盟解讀:
這篇文章被引兩萬(wàn)五千余次!
這是微軟團(tuán)隊(duì)進(jìn)行的研究,同時(shí)2018年此團(tuán)隊(duì)也高產(chǎn)論文。
在今年排名前100位的期刊中,有5種是人工智能會(huì)議出版物。
文章摘要:
更深層次的神經(jīng)網(wǎng)絡(luò)更難訓(xùn)練。我們提出了一個(gè)殘差學(xué)習(xí)框架,以簡(jiǎn)化對(duì)比以前使用的網(wǎng)絡(luò)更深入的網(wǎng)絡(luò)的訓(xùn)練。我們根據(jù)層輸入顯式地將層重新表示為學(xué)習(xí)殘差函數(shù)( learning residual functions),而不是學(xué)習(xí)未定義函數(shù)。我們提供了綜合的經(jīng)驗(yàn)證據(jù),表明這些殘差網(wǎng)絡(luò)易于優(yōu)化,并且可以從大幅度增加的深度中獲得精度。在ImageNet數(shù)據(jù)集上,我們估計(jì)殘差網(wǎng)絡(luò)的深度可達(dá)152層--是vgg網(wǎng)絡(luò)的8倍深[41],但仍然具有較低的復(fù)雜性。這些殘差網(wǎng)的集合在圖像集上的誤差達(dá)到了3.57%。這個(gè)結(jié)果獲得了ILSVRC2015的分類(lèi)任務(wù)第一名,我們還用CIFAR-10數(shù)據(jù)集分析了100層和1000層的網(wǎng)絡(luò)。
? ? 表示深度對(duì)于許多視覺(jué)識(shí)別任務(wù)是非常重要的。僅僅由于我們的表示非常深入,我們?cè)赾oco對(duì)象檢測(cè)數(shù)據(jù)集上得到了28%的相對(duì)改進(jìn)。深度殘差網(wǎng)絡(luò)是我們參加ILSVRC & COCO 2015 競(jìng)賽上所使用模型的基礎(chǔ),并且我們?cè)贗mageNet檢測(cè)、ImageNet定位、COCO檢測(cè)以及COCO分割上均獲得了第一名的成績(jī)。
◆?◆?◆ ?◆?◆
2.?"Deep learning"?(2015)
Nature
16,750 citations
This paper stands out not just because of its high number of citations, but because there was a difference of more than 10,000 between its citation count and the second most-cited?Nature?paper in the 2019 Google Scholar Metrics report.
Authored by 2018 Turing Award winners, Yann LeCun,?Yoshua Bengio?and Geoffrey Hinton – known collectively as the?'Godfathers of AI'?– the paper is a seminal review of the potential of the AI technologies.
聯(lián)盟解讀:
這篇文章系出名門(mén),出自Nature,是圖靈獎(jiǎng)的獲得者寫(xiě)的綜述
本文不僅因?yàn)槠湟脭?shù)量眾多而引人注目,而且因?yàn)橐么螖?shù)與2019年Google學(xué)術(shù)搜索指標(biāo)報(bào)告中引用數(shù)量最多的第二篇自然論文之間存在差異超過(guò)10,000。
由圖靈獎(jiǎng)得主,Yann LeCun,Yoshua Bengio和Geoffrey Hinton(統(tǒng)稱(chēng)為“AI的教父”)撰寫(xiě)的論文是對(duì)人工智能技術(shù)潛力的開(kāi)創(chuàng)性回顧。
文章摘要:
深度學(xué)習(xí)可以讓那些擁有多個(gè)處理層的計(jì)算模型來(lái)學(xué)習(xí)具有多層次抽象的數(shù)據(jù)的表示。這些方法在許多方面都帶來(lái)了顯著的改善,包括最先進(jìn)的語(yǔ)音識(shí)別、視覺(jué)對(duì)象識(shí)別、對(duì)象檢測(cè)和許多其它領(lǐng)域,例如藥物發(fā)現(xiàn)和基因組學(xué)等。深度學(xué)習(xí)能夠發(fā)現(xiàn)大數(shù)據(jù)中的復(fù)雜結(jié)構(gòu)。它是利用BP算法來(lái)完成這個(gè)發(fā)現(xiàn)過(guò)程的。BP算法能夠指導(dǎo)機(jī)器如何從前一層獲取誤差而改變本層的內(nèi)部參數(shù),這些內(nèi)部參數(shù)可以用于計(jì)算表示。深度卷積網(wǎng)絡(luò)在處理圖像、視頻、語(yǔ)音和音頻方面帶來(lái)了突破,而遞歸網(wǎng)絡(luò)在處理序列數(shù)據(jù),比如文本和語(yǔ)音方面表現(xiàn)出了閃亮的一面。
◆?◆?◆ ?◆?◆
3.?"Going Deeper with Convolutions"?(2015)
Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition
14,424 citations
This paper by Google AI researchers describes their new object-detection system, GoogLeNet, built using a deep neural network system codenamed Inception.
It received?top marks?in the 2014 ImageNet Large Scale Visual Recognition Challenge – an international computer vision competition.
In 2018, Google’s parent company,?Alphabet, was the?sixth most prolific corporate entity?in high-quality research output in the Nature Index.
聯(lián)盟解讀:
本文由Google AI研究人員描述了他們的新物體檢測(cè)系統(tǒng)GoogLeNet,它使用代號(hào)為Inception的深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)構(gòu)建。
它在2014年ImageNet大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽中獲得最高分。
2018年,谷歌的母公司Alphabet在自然指數(shù)中成為高質(zhì)量研究產(chǎn)出中第六大多產(chǎn)企業(yè)
文章摘要:
我們?cè)贗mageNet大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽2014(ILSVRC14)上提出了一種代號(hào)為Inception的深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并在分類(lèi)和檢測(cè)上取得了新的最好結(jié)果。這個(gè)架構(gòu)的主要特點(diǎn)是提高了網(wǎng)絡(luò)內(nèi)部計(jì)算資源的利用率。通過(guò)精心的手工設(shè)計(jì),我們?cè)谠黾恿司W(wǎng)絡(luò)深度和廣度的同時(shí)保持了計(jì)算預(yù)算不變。為了優(yōu)化質(zhì)量,架構(gòu)的設(shè)計(jì)以赫布理論和多尺度處理直覺(jué)為基礎(chǔ)。我們?cè)贗LSVRC14提交中應(yīng)用的一個(gè)特例被稱(chēng)為GoogLeNet,一個(gè)22層的深度網(wǎng)絡(luò),其質(zhì)量在分類(lèi)和檢測(cè)的背景下進(jìn)行了評(píng)估。
◆?◆?◆ ?◆?◆
4.?"Fully Convolutional Networks for Semantic Segmentation"?(2015)
Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition
10,153 citations
A team from the?University of California, Berkeley?was responsible for this highly influential AI paper, which describes a state-of-the-art approach to building AI systems that can identify objects in images.
This particular type of model, semantic segmentation, can be used to count the number of objects in a single image, which has?great potential?for technologies such as self-driving cars and robotics.
聯(lián)盟解讀:
加州大學(xué)伯克利分校的一個(gè)團(tuán)隊(duì)負(fù)責(zé)這篇極具影響力的AI論文,該論文描述了構(gòu)建能夠識(shí)別圖像中物體的AI系統(tǒng)的最先進(jìn)方法。
這種特殊類(lèi)型的模型,語(yǔ)義分割,可用于計(jì)算單個(gè)圖像中的對(duì)象數(shù)量,這對(duì)于諸如自動(dòng)駕駛汽車(chē)和機(jī)器人技術(shù)具有很大潛力。
文章摘要:
卷積網(wǎng)絡(luò)在特征分層領(lǐng)域是非常強(qiáng)大的視覺(jué)模型。我們證明了經(jīng)過(guò)端到端、像素到像素訓(xùn)練的卷積網(wǎng)絡(luò)超過(guò)語(yǔ)義分割中最先進(jìn)的技術(shù)。我們的核心觀點(diǎn)是建立“全卷積”網(wǎng)絡(luò),輸入任意尺寸,經(jīng)過(guò)有效的推理和學(xué)習(xí)產(chǎn)生相應(yīng)尺寸的輸出。我們定義并指定全卷積網(wǎng)絡(luò)的空間,解釋它們?cè)诳臻g范圍內(nèi)dense prediction任務(wù)(預(yù)測(cè)每個(gè)像素所屬的類(lèi)別)和獲取與先驗(yàn)?zāi)P吐?lián)系的應(yīng)用。我們改編當(dāng)前的分類(lèi)網(wǎng)絡(luò)(AlexNet [22] ,the VGG net [34] , and GoogLeNet [35] )到完全卷積網(wǎng)絡(luò)和通過(guò)微調(diào) [5] 傳遞它們的學(xué)習(xí)表現(xiàn)到分割任務(wù)中。然后我們定義了一個(gè)跳躍式的架構(gòu),結(jié)合來(lái)自深、粗層的語(yǔ)義信息和來(lái)自淺、細(xì)層的表征信息來(lái)產(chǎn)生準(zhǔn)確和精細(xì)的分割。我們的完全卷積網(wǎng)絡(luò)成為了在PASCAL VOC最出色的分割方式(在2012年相對(duì)62.2%的平均IU提高了20%),NYUDv2,和SIFT Flow,對(duì)一個(gè)典型圖像推理只需要花費(fèi)不到0.2秒的時(shí)間。?
◆?◆?◆ ?◆?◆
5.?"Prevalence of Childhood and Adult Obesity in the United States, 2011-2012"?(2014)
JAMA
8,057 citations
No non-AI-related paper received more than 10,000 citations in the?2019 Google Scholar Metrics, but this investigation by a team from the US?Centers for Disease Control and Prevention?came close.
At the time of its release, the study provided the most up-to-date national estimates of childhood obesity in the United States and found that more than one-third of adults and 17% of youth were obese.
It did conclude, however, that there had been no significant changes in obesity prevalence in youth or adults between 2003-2004 and 2011-2012.
聯(lián)盟解讀:
在2019年的Google學(xué)術(shù)搜索指標(biāo)中,沒(méi)有非人工智能相關(guān)的論文獲得超過(guò)10,000次引用,但美國(guó)疾病控制和預(yù)防中心的一個(gè)團(tuán)隊(duì)的調(diào)查結(jié)果非常接近。
在其發(fā)布時(shí),該研究提供了美國(guó)最新的兒童肥胖國(guó)家估計(jì)數(shù),發(fā)現(xiàn)超過(guò)三分之一的成年人和17%的青年人肥胖。
然而,它確實(shí)得出結(jié)論,2003 ?- ?2004年和2011 ?- ?2012年間,青年或成年人的肥胖患病率沒(méi)有顯著變化。
◆?◆?◆ ?◆?◆
6.?"Global, regional, and national prevalence of overweight and obesity in children and adults during 1980–2013: a systematic analysis for the Global Burden of Disease Study 2013"?(2014)
Lancet
7,371 citations
With almost 200 authors from more than 100 institutions, this paper signifies an enormous undertaking to investigate the global prevalence of obesity.
The study found that the proportion of adults in the world that were overweight or obese had increased between 1980 and 2013, particularly in developed countries, and identified obesity as a major global health challenge.
The second most-cited?Lancet?paper had 2,459 citations, making this paper an anomaly for the medical journal.
聯(lián)盟解讀:
來(lái)自100多家機(jī)構(gòu)的近200名作者,這篇論文標(biāo)志著調(diào)查全球肥胖患病率的巨大努力。
該研究發(fā)現(xiàn),1980年至2013年,世界上超重或肥胖的成年人比例有所增加,特別是在發(fā)達(dá)國(guó)家,并將肥胖確定為全球主要的健康挑戰(zhàn)。
引用次數(shù)最多的Lancet論文有2,459次引用,使得這篇論文成為醫(yī)學(xué)期刊的一個(gè)異常。
◆?◆?◆ ?◆?◆
7.?"Observation of Gravitational Waves from a Binary Black Hole Merger"?(2016)
Physical Review Letters
6,009 citations
This study stands out among the rest in this list as one that gained significant media attention and engagement from the general public, making an impact both inside and outside academia.
Through this paper, a team of physicists from the Advanced Laser Interferometer Gravitational-Wave Observatory (LIGO) described the?first direct observation of gravitational waves?– a feat that took a century to achieve following Einstein’s prediction of these elusive ripples in space-time.
The study got 2.5 times more citations than the second most-cited paper in?Physical Review Letters, also from LIGO, which in 2017 announced the?first direct observation?of a merger between two neutron stars.
聯(lián)盟解讀:
大名鼎鼎的引力波團(tuán)隊(duì)LIGO
這項(xiàng)研究在這份名單中脫穎而出,引起了廣大公眾的廣泛關(guān)注和參與,在學(xué)術(shù)界內(nèi)外產(chǎn)生了影響。
通過(guò)本文,來(lái)自高級(jí)激光干涉儀引力波觀測(cè)臺(tái)(LIGO)的一組物理學(xué)家描述了引力波的第一次直接觀測(cè) - 這一壯舉需要一個(gè)世紀(jì)才能實(shí)現(xiàn)愛(ài)因斯坦在時(shí)空中預(yù)測(cè)這些難以捉摸的漣漪。
這項(xiàng)研究的引用次數(shù)是物理評(píng)論快報(bào)中第二次被引用最多的論文的2.5倍,LIGO也在2017年宣布首次直接觀察兩顆中子星之間的合并。
END
聲明:本文來(lái)源于聯(lián)盟總結(jié)
加群交流
歡迎加入CV聯(lián)盟群獲取CV和ML等領(lǐng)域前沿資訊
掃描添加CV聯(lián)盟微信拉你進(jìn)群,備注:CV聯(lián)盟
熱文薦讀
重磅!中國(guó)人工智能學(xué)會(huì)2019年度優(yōu)秀博士學(xué)位論文終評(píng)名單公示
中國(guó)科學(xué)院大學(xué)第二屆本科畢業(yè)生再創(chuàng)輝煌!(87%繼續(xù)深造:含MIT等名校)
一方面SCIENCE勸退博士,一方面清華發(fā)公告,擬對(duì)2名博士生退學(xué)處理!
上海交通大學(xué)“土味”招生視頻~閃瞎雙眼--讓你笑出豬叫...
人工智能領(lǐng)域的黃埔軍校--中國(guó)科學(xué)技術(shù)大學(xué)!(科大訊飛、商湯、寒武紀(jì)、云從科技...)
5G到底有多快?北郵學(xué)生測(cè)試校園5G網(wǎng)速刷爆網(wǎng)絡(luò)
中國(guó)人民大學(xué)高瓴人工智能學(xué)院協(xié)議薪酬120-180萬(wàn),住房補(bǔ)貼400萬(wàn)刷屏!解決住房和上人大附小!
點(diǎn)個(gè)好看支持一下吧
總結(jié)
以上是生活随笔為你收集整理的重磅!Google学术发布2019年最有影响力的7篇论文!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: centos下压缩文件7z解压
- 下一篇: js字符转译