为什么说要重视神经网络加速器
自從以深度學習為代表的神經網絡算法的精度大大提升以后,人工智能開始終于又再次火了起來,且有席卷全球之勢。根據BBC預測,到2020年,人工智能總體市場將會高達1190億元的規模,年平均復合增長率也將達到19.7%。龐大的市場潛力就吸引了眾多的芯片、算法和應用廠商投身其中。
和過去的大多數應用不一樣,人工智能在模型訓練與推理中需要大量的計算。但受限于其算法和計算本身的特性,過往一直被廣泛使用的傳統計算芯片卻無法滿足這些需求,這就要求芯片廠商去為神經網絡算法打造專用的芯片,尤其是推理端的芯片,也就是俗稱的神經網絡加速器。由于這個市場大家幾乎都處于同一起跑線,所以很多新興的和傳統的芯片廠商在上面角逐,這就給開發者的芯片選擇帶來了困擾。
為此,我們從概念入手,為大家提供神經網絡加速器的(NNA)基本面了解,還有一些廠商的應用范例,希望對大家有所啟發。
神經網絡加速器是趨勢
在談神經網絡加速器之前,我們先了解一下什么是神經網絡。
據維基百科,在機器學習和認知科學領域,人工神經網絡是一種模仿生物神經網絡(動物的中樞神經系統,特別是大腦)的結構和功能的數學模型或計算模型,用于對函數進行估計或近似。神經網絡由大量的人工神經元聯結進行計算。大多數情況下人工神經網絡能在外界信息的基礎上改變內部結構,是一種自適應系統?,F代神經網絡是一種非線性統計性數據建模工具。
典型的神經網絡具有以下三個部分:
1)結構(Architecture)
結構指定了網絡中的變量和它們的拓撲關系。例如,神經網絡中的變量可以是神經元連接的權重(weights)和神經元的激勵值(activities of the neurons)。
2)激勵函數(Activity Rule)
大部分神經網絡模型具有一個短時間尺度的動力學規則,來定義神經元如何根據其他神經元的活動來改變自己的激勵值。一般激勵函數依賴于網絡中的權重(即該網絡的參數)。
3)學習規則(Learning Rule)
學習規則指定了網絡中的權重如何隨著時間推進而調整。這一般被看做是一種長時間尺度的動力學規則。一般情況下,學習規則依賴于神經元的激勵值。它也可能依賴于監督者提供的目標值和當前權重的值。例如,用于手寫識別的一個神經網絡,有一組輸入神經元。輸入神經元會被輸入圖像的數據所激發。在激勵值被加權并通過一個函數(由網絡的設計者確定)后,這些神經元的激勵值被傳遞到其他神經元。這個過程不斷重復,直到輸出神經元被激發。最后,輸出神經元的激勵值決定了識別出來的是哪個字母。
人工神經網絡通常是通過一個基于數學統計學類型的學習方法(Learning Method)得以優化,所以人工神經網絡也是數學統計學方法的一種實際應用,通過統計學的標準數學方法我們能夠得到大量的可以用函數來表達的局部結構空間,另一方面在人工智能學的人工感知領域,我們通過數學統計學的應用可以來做人工感知方面的決定問題(也就是說通過統計學的方法,人工神經網絡能夠類似人一樣具有簡單的決定能力和簡單的判斷能力),這種方法比起正式的邏輯學推理演算更具有優勢。
擁有了這些神經網絡之后,不但可以在云端架設服務器提供人工智能服務,且可以應用到智能手機、智能安防甚至智能汽車中實現圖像識別、物體跟蹤和語音識別等任務。但這些應用由于其應用場景的不同,還有算法特性的限制,這就要求他們提供低功耗、高效的,專門設計用來運行這些神經網絡算法的芯片,我們就把他們稱之為“神經網絡加速器”。
再者,從目前看來,由于數據收集需要大量運算,因此各國的人工智算法仍然以云端發展為主。但考慮到信息安全、功耗以及對產品設計帶來的挑戰問題,以云為中心的架構方式并非在任何情況下都是最理想的解決方案,這就推動了對嵌入式人工智能的關注。那就對相關的芯片提出了更高的需求。
綜上所述,推進神經網絡加速器的落地勢在必行?,F在也有很多廠商正在針對不同的應用方向進行相關的研發工作,來自日本的索喜也是當中的一員。據了解,這家從專注于成像、網絡和電腦計算技術三大板塊的創新型企業正在推動AI在汽車方面的落地。
Socionext推NNA加速AI在邊緣落地
Socionext(索喜科技)成立于2015年,由富士通株式會社與松下電器產業株式會社對兩家公司的系統LSI業務進行合并,并接受日本政策投資銀行的注資組成。公司為全球客戶設計、開發和提供片上系統產品。公司日前宣布開發出一種新的神經網絡加速器,用于優化邊緣計算中的人工智能處理。
據介紹,Socionext目前提供的圖像顯示控制器“SC1810”內搭載有視覺處理器(VPU, Vision Processor Unit),與標準化組織Khronos Group開發的電腦視覺API“OpenVX”兼容。NNA的設計加入將擴展下一代圖像顯示控制器中VPU的性能。
Socionext方面表示,這個NNA采用量子化技術整合了公司的專有構架,減少了深度學習所需的參數和激活值。通過量子化技術能以較少的資源執行大量計算任務,大幅減少數據量,并顯著降低系統存儲器帶寬。此外,新開發的片上存儲器電路設計提高了深度學習所需的計算資源效率,能在非常小的封裝中實現最佳性能。搭載有NNA的VPU結合了最新的技術,能在圖像識別處理時比傳統VPU快100倍。
據透露,新推出的NNA加速器提高了SC1810的VPU性能,能在汽車、數字標牌等多種應用中以高速度和低功耗完成圖像識別處理和深度學習等的計算機視覺處理工作,能廣泛應用在包括車載系統中的影像拍攝,以及基于行人、自行車等高精度物體識別的輔助駕駛以及自動泊車等方面。
另外,在電視和數字標牌等顯示系統中,NNA可在超分辨率處理時增強圖像識別,提高4K/8K屏幕高清晰度成像。這又是Socionext這個方案的另一應用方向。
Socionext預計于2018年第三季度開始提供NNA FPGA軟件開發包。該軟件開發包可支持TensorFlow學習環境,并提供專用的量子化技術庫和從學習模型到推論處理用的數據轉換工具。通過利用NNA優化后的學習環境,用戶無需模型壓縮或學習調諧(learning tuning)知識也能有效建立起他們自己的模型。今后Socionext還將計劃通過支持各種深度學習框架來支持應用廣泛的開發環境,讓用戶能簡單建立深度學習的應用程序。
“我們將繼續不斷創新并開發出高效、高性能產品,以適應各種邊緣計算環境中廣泛的AI應用?!?#xff0c;Socionext中國區總裁鈴木壽哉先生強調。
原文發布時間為:2018-06-14
本文來自云棲社區合作伙伴“半導體行業觀察”,了解相關信息可以關注“半導體行業觀察”。
總結
以上是生活随笔為你收集整理的为什么说要重视神经网络加速器的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Java单例设计模式(实现Java的一个
- 下一篇: 我目前要学习的vue知识点