避免关注底层硬件,Nvidia将机器学习与GPU绑定
??????????? Nvidia釋放的一組cuDNN的庫(kù),有效的實(shí)現(xiàn)了其與多種深度學(xué)習(xí)框架的整合?;赾uDNN,加速了代碼的運(yùn)行,同時(shí)讓研究員避免去關(guān)心底層硬件性能。
關(guān)鍵字: 編程語(yǔ)言語(yǔ)音識(shí)別Nvidia
原文鏈接:http://www.efficient-it.com.cn/viewnews/itemid/30996.html
-
近日,通過釋放一組名為cuDNN的庫(kù),Nvidia將GPU與機(jī)器學(xué)習(xí)聯(lián)系的更加緊密。據(jù)悉,cuDNN可以與當(dāng)下的流行深度學(xué)習(xí)框架直接整合。Nvidia承諾,cuDNN可以幫助用戶更加聚焦深度神經(jīng)網(wǎng)絡(luò),避免在硬件性能優(yōu)化上的苦工。
當(dāng)下,深度學(xué)習(xí)已經(jīng)被越來越多的大型網(wǎng)絡(luò)公司、研究員,甚至是創(chuàng)業(yè)公司用于提升AI能力,代表性的有計(jì)算機(jī)視覺、文本檢索及語(yǔ)音識(shí)別。而包括計(jì)算機(jī)視覺等流行的領(lǐng)域都使用了圖形處理單元(GPU),因?yàn)槊總€(gè)GPU都包含了上千的核心,它們可以加快計(jì)算密集型算法。
通過Nvidia了解到,cuDNN基于該公司的CUDA并行編程語(yǔ)言,可以在不涉及到模型的情況下與多種深度學(xué)習(xí)框架整合。Nvidia的一位發(fā)言人透露了更多消息:
通過在Caffe、Theano、Torch7等主流機(jī)器學(xué)習(xí)框架上的研究,cuDNN允許研究員可以在這些框架上無縫利用GPU的能力,并預(yù)留了未來的發(fā)展空間。舉個(gè)例子:在Caffe中整合cuDNN對(duì)終端用戶是不可見,只需要非常簡(jiǎn)單的設(shè)置就可以完成這個(gè)操作,即插即用是cuDNN的核心設(shè)計(jì)因素。
從更技術(shù)的角度看,cuDNN是一個(gè)低等級(jí)的庫(kù),無需任何CUDA代碼就可以在host-code中調(diào)用,非常類似我們已經(jīng)開發(fā)的CUDA cuBLAS和cuFFT庫(kù)。通過cuDNN,用戶不必再關(guān)心以往深度學(xué)習(xí)系統(tǒng)中的底層優(yōu)化,他們可以將注意力集中在更高級(jí)的機(jī)器學(xué)習(xí)問題,推動(dòng)機(jī)器學(xué)習(xí)的發(fā)展。同時(shí)基于cuDNN,代碼將以更快的速度運(yùn)行。
不管是為了未來增長(zhǎng),還是“GPU不只用于計(jì)算機(jī)圖形渲染”這個(gè)長(zhǎng)期目標(biāo),Nvidia在擁抱深度學(xué)習(xí)和機(jī)器學(xué)習(xí)上非常積極。當(dāng)下GPU的使用已經(jīng)非常廣泛,機(jī)構(gòu)使用它代替CPU以獲得更高的速度及更低的成本。
但是,仍然存在一些特定的因素抑制了CPU的長(zhǎng)期發(fā)展。其中一個(gè)就是替代架構(gòu),比如IBM的SyNAPSE和類似Nervana Systems一些初創(chuàng)公司的努力,比如,它們專門為神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)負(fù)載設(shè)計(jì)。另一個(gè)則是現(xiàn)有的處理器架構(gòu),包括CPUs和FPGAs已經(jīng)讓人們看到了未來機(jī)器學(xué)習(xí)負(fù)載上的能力。
雖然當(dāng)下已經(jīng)有很多云供應(yīng)商通過服務(wù)的形式提供了深度學(xué)習(xí)能力,但是機(jī)器深度學(xué)習(xí)離進(jìn)入主流仍然有很大的距離。
創(chuàng)作挑戰(zhàn)賽新人創(chuàng)作獎(jiǎng)勵(lì)來咯,堅(jiān)持創(chuàng)作打卡瓜分現(xiàn)金大獎(jiǎng)
總結(jié)
以上是生活随笔為你收集整理的避免关注底层硬件,Nvidia将机器学习与GPU绑定的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。