三面百度AI岗,炸了
最近摸魚期間,發現身為程序員的我被賦予了另一個身份“新生代農民工”,簡直炸了!重點還官宣了,這就更加實錘了啊!我就想說,我們新生代農民工招誰惹誰了,我們能有什么壞心思呢?頭都禿了掙點高工資容易嗎?
說到高工資,坊間確實流傳著程序員35歲財富自由一說,尤其是做AI算法工程師的,年紀輕輕就可以月入6W+!但也有不少人說了,真能開出高薪的也就大廠了吧,看看那些JD,再看看自己之前螺絲釘的工作,大廠的程序員是不是都得會造輪子?自己能面的上么?
這不,一個朋友最近去百度面了一個AI相關的工作,面試官結合現在流行的AI、物聯網趨勢,問到AI落地會考慮哪些問題,先來給大家分享一下~
一、為了適配邊緣部署要求,AI算法怎么做適配?
二、在模型效果和效率之間怎么做平衡和取舍?怎么在不犧牲效果的前提下提高效率?
三、AI算法上線后怎么持續做迭代?
這一連“三問”瞬間給朋友問懵了,他說當時真想找個地縫鉆進去。不過幸好他提前刷了很多試題,也找別人取了經驗,關鍵還主動對飛槳PaddlePaddle、飛槳企業版BML等產品做了一些了解,思考了一會兒以后竟然對答如流,簡直“凡爾賽”了!面試回來竟然還寫了面經!
“跑起來”
適配、適配,還是適配!
我們都知道現在是人工智能時代,越來越多的AI需要從云端擴展到我們熟悉的邊緣端,比如智能耳機、智能攝像機、智能手環、物流機器人等等,把AI部署在邊緣端已經成為趨勢,這也正式嵌入式AI要做的事情。而我們關心的AI模型能不能跑起來問題,關鍵在于軟硬件環境的適配情況:
?
硬件適配,當然是適配越多的AI芯片越好。常見的有CPU,GPU,FPGA,以及各類ASIC芯片,例如:Nvidia Jetson系列、海思NNIE系列、華為Atlas、麒麟NPU、高通DSP、Intel VPU、瑞芯微NPU、寒武紀等,都適配了就給工程師降低了端側模型適配遷移的難度,換一個設備照樣可以輕松的部署上去;
軟件適配,四大操作系統肯定不用說要適配。Linux、Windows、Android 、iOS,無論是PC還是手機,都得能給安排上;
框架適配,越全越好。我們知道的飛槳 PaddlePaddle、TensorFlow、PyTorch、Caffe、MXNet 等框架以及 ONNX 模型格式。此外,還要支持圖像分配、物體檢測、人臉識別、OCR等業界主流的算法類型,這樣在模型的適配和轉換方面可以輕松自如。
“跑得快”
“輕裝上陣”,不以犧牲精度為目的
在進行端側部署時,我們通常比較關注模型的推理性能,其實,各家AI芯片廠商為了實現更高性能的推理能力,都在努力提高芯片的并行處理能力,比如通過GPU這樣的超多線程并行處理……但最終的結果是,算力得到提升了,靈活性反而下降了。想要一個速度快、精度高、占用內存少的模型,該怎么辦??
為了讓模型跑得更快更省內存,我們可以采用模型壓縮,比如模型量化、剪枝和蒸餾技術,讓模型輕便地跑起來,在盡可能保證效果的同時達到更好的壓縮效果。蒸餾可以簡單理解為,通過大模型蒸餾小模型,使得小模型具有與大模型接近的效果。而量化、剪枝本質都是對基礎模型在盡量不影響精度的前提下進行精簡 , 自然模型小了 , 內存占用就少了 , 推理時間也就短了,功耗也更低。
“持續跑”
部署并非一勞永逸,AI要自我迭代
模型的部署不是一勞永逸的,我們需要根據客戶需求或者實際的業務場景進行迭代升級,需要在應用中收集樣本、不斷更新模型。?
其實,最簡單的模型維護方式就是不斷添加新數據,或者在添加的基礎上做進一步數據增強,從而提升模型迭代的精度。比較好操作的方法就是把新的數據添加到原有的數據集,從而讓模型持續優化。?
以上就是朋友做的面試經驗總結啦,當然他也喜提了百度AI的offer,他很慶幸自己提前做足了功課,尤其是對百度BML的深入了解,面試問題可謂正中下懷!他也給身邊想學AI的朋友們安利了百度BML,從AI入門到精通都可以在這個平臺上進行。講真,靠這個面試拿到高薪,程序員農民工也很知足了。?
9月15-16日,邀請您參加百度AI快車道-BML線上課程,百度技術專家將聯合英偉達解決方案專家一起探討如何在端側高效部署AI模型,誠邀您的參與。?
1. 參與百度BML線上直播互動,可抽取Jetson Nano、小度耳機、智能音箱、體脂秤等好禮;
2. 課程結束體驗產品并完成“產品體驗調研報告”,可獲得100元京東卡獎勵。
點擊【閱讀原文】,參與課程直播抽獎活動。
????
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
·
總結
以上是生活随笔為你收集整理的三面百度AI岗,炸了的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 今日arXiv精选 | 31篇EMNLP
- 下一篇: win7怎么安装到u盘安装驱动 Win7