【杂谈】万字长文回顾深度学习的崛起背景,近10年在各行各业中的典型应用
筆者作為一個從業5年多的技術人員,吃到了深度學習的早期紅利,這次來聊一聊深度學習的崛起背景、當下的典型應用領域,算作給尚未或者正打算擁抱這門技術的朋友們一個較為全面的科普。
深度學習為什么能夠崛起
一架飛機要成功在天上飛行,離不開3大要素,優良的結構設計,強勁的發動機,足夠的燃料。對于深度學習來說,要成功也需要滿足這3個前提條件,即先進的算法模型,強勁的計算資源,足夠的學習數據。
深度學習的成功不是一蹴而就,正是這三個條件長時間積累后的集中爆發,換一種更具體的說法就是大數據時代的來臨,GPU的發展,神經網絡相關工程理論的改進。
大數據時代的來臨
人類的文明歷史,經過了從結繩記事,文字記事,到如今的圖片,視頻記事的發展歷史,正所謂一圖勝千言。
在文字被發明之前,人類文明其實沒有多少記錄,比如我們對夏朝及其以前的歷史其實就不太熟悉。而商朝時古人發明了甲骨文,于是文明通過文字的形式傳承下來。不過在紙張被發明之前,記錄下的信息并不多。古人形容一個人有學識,要用學富五車來形容,這個五車就是實實在在的信息的度量方式,因為當時的文字存在于竹簡上。后面紙張被發明,記錄文字的效率才得到提升。
隨著現代文明的中心轉移到了西方,1826年前后法國科學家Joseph Nicéphore Niépce發明第一張可以永久記錄的模擬照片,美國發明家愛迪生則在1877年前后發明了留聲機。在第一次世界大戰后的兩年,數字圖像也被發明了,被用于新聞行業,從此人類記錄的信息變得更加豐富。
1969年因特網的前身ARPANET被發明,隨著計算機技術的迭代更新,我們開始逐漸進入互聯網信息時代,數據的形式開始變得更加高維和復雜,以網頁為代表的數據形式,同時包括了文本、圖像、語音、超鏈接等信息。
根據2012年的暢銷書《大數據時代》的統計結果:2000年的時候, 數字存儲信息只占全球數據量的四分之一;另外四分之三的信息都存儲在報紙、 膠片、黑膠唱片和盒式磁帶這類傳統的媒介上,這個時期個人依舊是被動式的接收中心節點整理好的信息,數據量有限,更新頻率低。
但時間到了2007年, 所有數據中只有7%是存儲在報紙、 書籍、 圖片等媒介上的模擬數據, 其余全部是數字數據,個人開始主動創造數據并傳送到中心節點,數據量龐大,更新頻率高。
我們打開APP,拍照上傳,發帖評論,瀏覽網頁,播放視頻,點擊廣告,搜索信息,收藏購買,在線支付,即時通信,點贊轉發,心跳血壓,每時每刻都在制造數據。
本圖來自清華大學-大數據應用人才培養系列教材
當時互聯網每天產生的全部內容可以刻滿6.4億張DVD,全球每秒發送290萬封電子郵件,一分鐘讀一篇的話,足夠一個人晝夜不停地讀5.5年。
基于此,杰姆·格雷(Jim Gray)提出數據領域的“新摩爾定律”,即人類有史以來的數據總量,每過18個月就會翻一番。
自此我們進入了大數據時代,大數據時代的特點在于,我們處理問題的思維方式發生了變化,我們習慣從數據中進行統計學習,從追求因果關系到追求相關關系。
大數據時代對我們生活的改變是深遠的,譬如在2012年數以萬計的美國人進行模型側寫, 平均憑借一個Facebook用戶的68個“贊”,模型就能夠估計出他們的膚色(準確率為95%)、性取向(準確率為88%)和黨派(民主黨或共和黨,準確率為85%)。基于此,Cambridge Analytica公司使用大數據挖掘和心理側寫(Psychological profiling)等技術手段,采取不同的傳媒策略(主要是社交媒體上的精準投放),在2016年幫助英國脫歐公投陣營贏得脫歐公投、在美國大選中操縱選情幫助特朗普總統贏得大選。
研究人員有了更多的數據,就可以開始解決更加復雜的問題。以計算機視覺任務為例,1998年發布的手寫數字識別數據集MNIST,共60000圖片,10個類別,2009年發布的ImageNet數據集,共1400多萬圖片,2萬多個類別,百萬標注框。如果不是大數據時代的積累,我們就沒有ImageNet這樣的行業基準來推動計算機視覺領域的快速進步。
大數據還催生了新的職業,如數據標注工程師,誕生了許多相關的公司、大數據社區。
沒有大數據,不可能有足夠的‘養料’喂養出深度學習模型,而深度學習的崛起,正是從2010年左右,我們進入數據快速增長的大數據時期開始。
GPU的發展
現在我們都知道做深度學習任務GPU是必不可少的,其結構和CPU相比有很大不同。
CPU( Central processing unit )需要很強的通用性來處理各種不同的數據類型,同時在大量的邏輯判斷中,包含了大量的分支跳轉和中斷處理,使得CPU的內部結構異常復雜,不擅長于快速計算。?
而GPU(Graphic Processing Unit)則專為圖像處理設計,采用了數量眾多的計算單元(arithmetic and logic unit)和超長的流水線,但只有非常簡單的控制邏輯并省去了Cache。
這使得GPU擁有高帶寬的獨立顯存;浮點運算性能高;幾何處理能力強;適合處理并行與重復計算任務;適合圖像或視頻處理任務;
CPU的峰值計算能力=CPU頻率×CPU核心數×浮點運算單元數,如i7-8700K的CPU頻率=3.7GHZ,核數為6,浮點運算單元數為16,浮點運算能力是3.7*16*6<360 Gflops以下。而TITAN V峰值浮點性能為110 TFlops(1T=1024G),TESLA v100峰值浮點性能為125 TFlops ,因此GPU有超過CPU幾個數量級的速度優勢。
不過GPU也不是一開始就擁有如此強勁的計算能力,簡單來說經歷了3個時期。
第1時期是固定架構時代( fixed function architecture,1995-2000年)。1999年,NVIDIA推出第一款GPU Geforce256,擁有完整的頂點變換、光照計算、參數設置以及渲染等四種3D計算引擎,每秒處理至少1000萬個多邊形,極大加快了計算機3D程序運行速度。2000年, NVIDIA推出全球首款針對筆記本的GPU——GeForce2 Go。
第2時期是分離渲染架構時代( separated shader architecture,2001-2005年)。1999年到2002年, NVIDIA推出了業界首款獨立的可編程GPU Geforce3,ATI(2006年被AMD收購)推出了Radeon8500。這個時期的GPU用可編程的頂點渲染器(Vertex Shader)替換了變換與光照相關的固定單元,用可編程的像素渲染器(Pixel Shader)替換了紋理采樣與混合相關的固定單元,這兩部分是實現圖形特效最密集的部分, 使用渲染器大大加強了圖形處理的靈活性與表現力。兩個渲染器呈現流處理器(stream processor)的特點, 不過在物理上是兩部分硬件, 不可相互通用。
第3時期是統一渲染架構時代( unified shader architecture,2006年至今)。2006年NVIDIA與ATI分別推出了CUDA(Computer Unified Device Architecture,統一計算架構)編程環境和CTM(Close To the Metal)編程環境,這使GPU通用計算編程的復雜性大幅度降低。這個時代的GPU首次提供幾何渲染程序(geometry shader program)功能,并動態調度統一的渲染硬件(unified shader)來執行頂點、幾何、像素程序,在體系結構上不再是流水線的形式,而呈現并行機的特征。
2006年,研究人員使用NVIDIA GeForce 7800訓練了4層的卷積神經網絡,相比CPU的BLAS優化有24%–47%的提升,這也是早期GPU在模型訓練中的嘗試。
隨后NVIDIA的GPU產品線迭代速度明顯加快,其設計架構從40nm Fermi、28nm Kepler、28nm Maxwell、16nm Pascal到如今的12nm Volta、Turing,推出了NVIDIA Tesla,GeForce GTX 600,GeForce GTX TITAN, GeForce GTX 980,GeForce GTX 1080,Tegra K1,GeForce GTX TITAN X,Tesla V100,Tesla P100等眾多消費者熟知的產品,對于深度學習模型的訓練產生了深遠的影響。
2009年,Hinton的團隊使用Nvidia GTX 280訓練2層的Deep Belief Network (DBN) 。
2012年,同樣是Hinton的團隊使用2個NVIDIA GTX580在ImageNet數據集上訓練8層的AlexNet,訓練時間為6天,這成為了深度學習在計算機視覺領域中的里程碑事件。
2018年,Facebook團隊使用256個NVIDIA Tesla P100在ImageNet數據集上訓練ResNet50,訓練時間1小時。
2018年,騰訊團隊使用 2048個NVIDIA Tesla P40在 ImageNet數據集上訓練ResNet-50,訓練時間6.6分鐘。?
2018年,日本索尼的神經網絡庫NNL,使用3456個NVIDIA Tesla v100,在ImageNet數據集上訓練ResNet-50,將其訓練時間縮短到了112秒。
正是第三個時期的GPU架構的快速發展,為深度學習模型的訓練提供了可能,催生了一代又一代新的更復雜的模型架構的誕生。
神經網絡相關工程理論的發展
什么是深度學習,它本質上是一個復雜的非線性變換構成的抽象算法,對數據進行表征學習(representation learning)。
傳統機器學習算法的研究流程是:手工特征+機器學習模型。而深度學習算法的研究流程是:從數據中自動學習特征,提高機器學習模型的性能,它們的主要區別在于特征提取這里。
神經網絡由于其結構非常適合于逐層進行數據的抽象表達,因此我們平常說深度學習,指的就是深度神經網絡,其中“深”表示網絡層數深,從傳統的幾層到成百上千層。
深度學習并不是全新的概念,神經網絡在上個世紀中期就已經誕生,其核心優化理論,反向傳播算法(Back-Propagation, BP算法)由保羅·韋爾博斯(Paul Werbos)在1974年發明,1986年戴維·魯梅哈特(David Rumelhart),杰弗里·辛頓(Geoffrey Hinton) 等人將其進行推廣完善。
在2006年,Geoffrey ?Hinton團隊發表了兩篇經典研究。第一篇是“Learning Multiple Layers of Representation”,提出了不同于以往學習一個分類器的目標,而是希望學習生成模型(generative model)的觀點,以期學習到更好的特征表達,擺脫對大量訓練數據的依賴,因此早期的深度學習也被稱為表示學習。另一篇論文“Reducing the dimensionality of data with neural networks”,則提出了逐層無監督預訓練玻爾茲曼機的方式,通過“預訓練+微調”有效地解決了深層模型難以訓練的問題,這具有非常重要的工程意義。
2011年,Glorot等人提出ReLU激活函數,有效地抑制了深層網絡的梯度消失問題,簡單而有效。
2012年,Hinton等人提出Dropout技術,有效地抑制了深層網絡的過擬合問題。它消除或者減弱了神經元節點間的聯合,降低了網絡對單個神經元的依賴,從而增強了泛化能力。
緊接著就是2012年Alex Krizhevsky在論文“ImageNet classification with deep convolutional neural networks”中正式提出了AlexNet網絡,包含8個網絡層,其中5個卷積層,3個全連接層,以低約10%的錯誤率,大幅度超過競爭對手,意味著深度學習的黃金時代真正到來了。
AlexNet模型的成功,就得益于當時最大的數據集ImageNet提供了足夠的樣本進行學習、當時最大的GPU以訓練超過55M的參數量,以及一系列神經網絡相關工程技術的使用,包括ReLU激活函數,LRN歸一化,Dropout,數據增強,這就是深度學習發展需要的三駕馬車。
麻省理工科技評論在2013年評選出十大突破性科學技術,深度學習位居榜首,隨后產業界開始重視深度學習。
2010年,斯坦福教授吳恩達( Andrew Ng)會見了Google當時的CEO, 決定開發Google Brain;?
2012年,Google的一個由16000臺電腦集群組成的人工神經網絡通過YouTube上有關于貓的資料自行訓練而能夠識別出“貓”這一概念;
2012年,華為成立諾亞方舟實驗室;
2013年,谷歌聘用了深度學習宗師Geoffrey Hinton;
2013年,百度深度學習研究院( Institute of Deep Learning )建立;?
2013年,FaceBook在紐約成立了FAIR(Facebook AI. Research),聘用了Yann LeCun作為首席科學家;?
2014年,谷歌以未公布的價格并購了英國DeepMind公司;
由此我們進入了長達將近10年的深度學習發展黃金時期,并且還將繼續下去。
深度學習在產業界的應用
從2012年至今已有將近10年的發展,深度學習在各行各業中不斷創造商業價值,這里我們從4個大的研究方向來看,即語音處理,計算機視覺,自然語言處理,推薦系統。
語音處理
在傳統的研究方法里,語音識別經歷了幾次重要的技術發展。從20世紀70年代的隱含馬爾科夫模型聲學建模,20世紀80年代的N元組語言模型,20世紀90年代的隱含馬爾科夫模型狀態綁定和自適應技術,到21世紀第一個十年的GMM-HMM模型。盡管這些技術取得了不錯的進步,但是仍然無法讓語音識別達到可商用的地步,直到深度學習的到來,一舉讓語音識別錯誤率相比以往最好的方法還下降了30%以上,突破了語音識別技術可以商用的臨界點。
在2009年neural information processing systems(NIPS)會議上,鄧力和Geoffrey Hinton聯合組織了Deep Learning for Speech Recognition and Related Applications workshop。他們首次證明使用新方法訓練的深度神經網絡在大量語音識別基準上優于之前的方法,并聯合發表了論文“Deep Neural Networks for Acoustic Modeling in Speech Recognition”。
2012年Abdel-Hamid等人證實卷積神經網絡可以在頻率坐標軸上有效歸一化說話人的差異,并在TIMIT音素識別任務上講錯誤率從20.7%降低到20%。
之后俞棟,鄧力以及Geoffrey Hinton等人致力于將深度學習技術廣泛引入語音識別中,并撰寫了書籍《Deep learning: methods and applications》。
2016年,微軟率先實現語音識別系統5.9%的低錯誤率,在Switchboard對話語音識別任務中已經達到人類對等的水平。
現如今深度學習在語音分類、語音質量評測、語音增強、音頻指紋識別、語音檢索與喚醒、語音識別、聲紋/說話人識別、語音合成與生成中應用非常廣泛。
語音分類和音頻指紋識別的典型應用即聽歌識曲,相信許多朋友都使用它識別過歌曲。
語音檢索識別的應用自不用說,智能音箱、語音輸入法、同聲傳譯、實時字幕生成,這些都是非常高頻的應用,大大便利了我們的日常生活。
語音合成(Text To Speech)技術在智能配音、虛擬主播、有聲閱讀、地圖導航、智能客服等領域中也已經普及,以下展示的就是幾個AI語音助手一起演唱歌曲的應用。
點擊邊框調出視頻工具條
而最先進的語音處理技術,當屬語音生成,可以從頭創作不存在的語音,樂曲,國內外都有非常多優秀的案例。如平安人工智能研究院創作的交響曲《我和我的祖國》,網易研究院創作的歌曲《醒來》,由AI完成詞、曲、編、唱這個全鏈路的工作,大家不妨來收聽感受一下。
這些應用的落地,都得益于深度學習技術的進步,使得我們通過語音與世界的交互變得更加便利和智能。
計算機視覺
由于人類接觸到的70%以上的信息都是視覺信息,因此計算機視覺是深度學習應用最廣泛也是最成熟的領域,研究領域本身就覆蓋了圖像分類、目標檢測、圖像分割、目標識別、目標跟蹤、圖像質量分析、圖像降噪與修復、圖像增強、圖像去模糊、圖像超分辨、圖像翻譯與風格化、圖像生成、三維重建、圖像編輯等方向……
而應用領域則覆蓋了交通行業,安防行業,娛樂創作行業、教育行業、醫療行業、電商零售行業、制造行業、養殖行業等范圍。
自2012年AlexNet圖像分類網絡取得成功后,一系列新的基準模型被提出,使得圖像識別領域率先取得商業大規模應用落地,其中最典型的當屬Google圖片、百度識圖等以圖搜圖的圖片檢索引擎,可以應用于各類物品檢索。
2015年以后,人臉識別算法取得不斷突破,如今在日常考勤,金融支付中已經是標準化技術,還可以被應用于犯罪分子抓捕、走失兒童與老人尋找,社會價值巨大。
隨著目標檢測與識別等技術的成熟,自動駕駛領域中的行人檢測 、車輛檢測、交通標志檢測等感知能力大大提升,推動了自動駕駛商業化落地的進程。
各類場景中的文字與標志識別精度達到了商業化落地水平,在諸如文檔識別、身份證識別、車票識別、銀行卡識別、車牌識別、發票識別、快遞單識別、儀表盤讀數識別等方向取得了落地,提高了這些任務的自動化水準。
目標檢測算法使得工業制造中的缺陷檢測、目標計數也可以變得更加智能,降低人力成本和產品損耗,提高生產效率。
除了識別相關的任務,深度學習在更底層的圖像處理任務中也取得了長足的進步,典型的應用包括圖像的自動裁剪,圖像的自動增強,老照片的修復,圖像分辨率的提升,圖像的風格化等。
說到視覺里最前沿的技術,當屬圖像和視頻的生成,隨著GAN等技術的發展,如今已經可以生成纖毫畢現的圖片和視頻,達到真假難辨的水平,比如下圖分別展示了生成的人臉和換臉的結果。
隨著二維圖片的處理漸趨成熟,三維的圖片處理成為了當下的熱門,在表情驅動、人體驅動、姿態編輯、虛擬主播 、關鍵點定位、虛擬試妝中有著廣闊的應用場景。
下面視頻中展示的虛擬主播,就應用到了三維人臉重建的技術。
點擊邊框調出視頻工具條
當下我們還處于將圖片處理技術遷移到視頻中的重要時期,諸如視頻分類、行為分析、視頻生成與預測、視頻檢索、光流估計、關鍵幀提取、視頻描述、視頻剪輯等都是熱門技術,這些都得益于深度學習技術的發展。
自然語言處理
自然語言處理技術被譽為人工智能皇冠上的明珠,自然語言處理的發展可以追溯到上個世紀50年代的圖靈測試,經歷了從規則到統計,再到現在的深度學習的發展過程。早期基于傳統機器學習模型的自然語言處理算法一般都基于淺層模型(如SVM和logistic 回歸),這些模型都在非常高維和稀疏的特征(one-hot encoding)上進行訓練和學習,會面臨著維度爆炸等難以解決的問題。
現如今深度學習在自然語言處理領域也發揮著巨大的價值,典型的研究領域包括文本分類與聚類、文章標簽與摘要提取、文本審核與輿情分析、機器翻譯、閱讀理解、問答系統與聊天機器人、搜索引擎、知識圖譜、自然語言生成等方向……
在2003年,Bengio等人在論文《A Neural Probabilistic Language Model》中提出了神經網絡語言模型,作為副產品的詞向量,掀開了用稠密的多維向量來編碼詞義的方式。Mikolov等人在2013年做出的研究《Distributed Representations of Words and Phrases and their Compositionality》中真正使得從大規模語料中獲得詞向量變為現實。
此后,一些基本的方向包括詞向量化,分詞,詞性標注,命名實體識別,文本結構化等研究逐漸成熟。
它們可以直接被用于一些基礎的文本處理任務,諸如快遞地址自動識別與填充,文本文件的分類,文章標簽與摘要提取,標題生成等。
隨著互聯網文本信息的增加,對文本中夾雜的色情、推廣、辱罵、違禁違法等內容的檢測有助于維護更健康的網絡環境,自然語言處理在其中發揮著重要作用。
同時,對帶有情感色彩的主觀性文本進行分析、處理和抽取,也在電影影評分析、商品口碑分析中有著重要作用,有助于提升消費者的使用體驗。
作為一個非常具有難度而又商業價值巨大的領域,機器翻譯一直是自然語言處理的核心問題,隨著深度學習模型的發展,以Google為代表的公司已經開發出了非常強大的機器翻譯算法,在各類翻譯詞典、翻譯機、跨語言檢索、語音同傳應用中大大便利了人們的日常交流。
我們對于以機器人為代表的人工智能技術總是充滿著非常高的期望,當下以百度小度為代表的問答機器人,阿里小蜜為代表的客服機器人,微軟小冰為代表的聊天機器人,都已經在商業環境中正式上崗。? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
閱讀理解,一向是復雜度非常高的人類推理行為,是深度學習大大推進了當下機器閱讀理解的發展,利用算法使計算機理解文章語義并回答相關問題的技術,AI在選擇題、問答題、填充題等多項任務中不斷取得突破,在某一些領域中甚至超過了人類水平。
搜索引擎是當下我們獲取信息的主要來源,通過自然語言理解技術,我們從基于關鍵字查詢的檢索邁入了面向自然語言理解的檢索,不僅可以檢索匹配關鍵詞相關內容,還可以理解用戶意圖。當你搜索‘唐三的女兒和兒子叫什么’時,直接給出的是答案,而不是一些相關網頁鏈接。
而知識圖譜的構建,則讓信息的展示變得更加條理清晰,這得益于自然語言處理中的多項關鍵技術。
當下基于深度學習的自然語言處理的最時髦的研究,莫過于自然語言生成/文本生成技術,不管是寫新聞,寫對聯,還是寫詩,都信手拈來。微軟小冰甚至創作并且出版了人類歷史上第一部100%由人工智能創造的詩集。
“樹影壓在秋天的報紙上\中間隔著一片夢幻的海洋我凝視著一池湖水的天空",這般優美的詩句,都是來自AI的詩意。
在此之前,微軟還讓小冰在天涯、豆瓣、簡書等平臺,用27個筆名發表自己的詩歌,讀者們還不知道“駱夢”、“風的指尖”、“一荷”、“微笑的白”這些筆名背后的詩人,其實并非人類。
當下自然語言處理已經能夠完成較為復雜的任務,如何處理更多藝術和情感相關的任務,也是研究人員在慢慢解決的問題,人類與AI共存的時代,已然降臨了。
推薦系統
人類從來沒有像今天這樣,被推薦系統如此深刻地支配過,仿佛找到了對抗選擇強迫癥的方法,不再需要自己去思考和搜索,只需要接受系統推薦過來的信息即可。
我們在互聯網上留下的所有足跡,都被小心地搜集起來,然后被抽象成具體的標簽,得到了千人千面的用戶畫像,被服務商用來推送有針對性的內容,所以你會感嘆最懂你的不再是家人或者朋友,而是手機。
從用戶角度來看,推薦系統可以幫用戶從海量信息中便捷地篩選出感興趣的內容,在用戶面對陌生領域時提供參考意見,滿足用戶的好奇心。而從系統角度來看,推薦系統可以幫系統篩選出高質量的用戶群,提高留存率,提高廣告的商業變現率,降低運營成本,提高內容的時效性、多樣性,解決長尾信息的閱讀問題。
所以你打開頭條看到的是你想讀的新聞, 打開淘寶看到的是你可能購買的商品,打開微信刷感興趣的文章和視頻,打開微博關注喜歡的博主,推送過來的東西精準又高效,這就是個性化推薦的效果。
當你刷完一個視頻,系統一定會給你再推薦類似的讓你欲罷不能的視頻,當你買完一件商品,又給你推送想入手的商品,于是真的陷入了‘看了還看’,‘買了又買’的循環,這就是相關推薦的效果。
能做到如此高效的推薦系統,背后得益于深度學習模型建模復雜特征,挖掘復雜關系的能力。如今商品推薦、新聞推薦、視頻推薦、音樂推薦、美食推薦等已經成為了上網的標配,徹底改變了我們從互聯網的信息海洋中獲取自己感興趣信息的方式。
結語
深度學習,并非是近十年誕生的新技術,而更像是新瓶裝舊酒,在大數據的爆發,硬件計算能力飛速提升的大背景下,一系列新的工程技術不斷被創新,讓我們進入了一個更加智能化的時代,不斷重組人們的生活和工作方式,創造商業傳奇,這是值得當下每一個人關注的技術。
為了幫助大家學習相關內容,有三AI聯合阿里云開設了《深度學習》系列課程,本文所介紹的內容都在視頻中有更加詳細的介紹,歡迎大家持續關注。
課程的具體地址為https://tianchi.aliyun.com/course/279,掃碼亦可直達:
沒有阿里云賬號的,可以參考下文進行配置:
【阿里云課程】有三AI在阿里云天池開設深度學習課程啦,從人工智能基礎講起,零基礎都可以來學
【重要】免費GPU+數據代碼!有三AI聯合阿里天池推出深度學習訓練營,任何基礎都可以學習
進入了智能時代,不懂深度學習,可能就真的落伍了。
往期相關
【阿里云課程】有三AI在阿里云天池開設深度學習課程啦,從人工智能基礎講起,零基礎都可以來學
【阿里云課程】深度學習在語音處理與計算機視覺中的研究方向與典型應用
【阿里云課程】深度學習在自然語言處理與推薦系統中的研究方向與典型應用
【雜談】2020年如何長期、系統,全面地學習深度學習和計算機視覺,這是有三AI的完整計劃
總結
以上是生活随笔為你收集整理的【杂谈】万字长文回顾深度学习的崛起背景,近10年在各行各业中的典型应用的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 需求分析类文档模板
- 下一篇: 微信小程序---判断苹果11及以上型号手