机器学习/深度学习 问题总结及解答
作者:原果
鏈接:https://www.nowcoder.com/discuss/71482
來源:牛客網
問題總結及資料鏈接
(1)機器學習部分
1 邏輯回歸部分
常問,推導要會
2 SVM部分
常問,推導要會,精簡版看下面鏈接,但是寫的不是很詳細,最好把cs229講義好好看看
3 集成學習
常問,推導要會
boosting方法:看李航的藍書,特別的對于GBDT,這篇文章寫的很清晰,推導相對簡單 這里注意一下,GBDT有兩種,一種是殘差學習,一種是負梯度代替殘差的版本(所以有個G啊),為啥用負梯度近似殘差也是常問的,其實這個說法就不對,殘差只是在loss用最小二乘時候的一個特例,對求梯度剛好就是,換成其他loss function就不對了,所以應該反過來說,殘差學習只是一個特例,負梯度才是通用的
stacking方法:沒有特別好的講解,都看看吧,這篇還行
決策樹:cart樹是最常問的,詳見李航藍書,從推導到剪枝都要會
4 softmax
這個相對簡單,這篇足夠了5 牛頓法和梯度下降
推導以及優劣比較,相對簡單,直接看cs229講義6 交叉驗證
相對簡單,看這篇7 正則方法
正則是一大塊,原理方法都要懂,可以參考這些文章 :1 28 歸一化方法
基礎問題,隨便那本書都有 9 SVD分解 PCA ICA 白化
這部分我沒有被問到,但是應該會問,畢竟是重點,看cs229講義
(2)深度學習部分
1 過擬合的起因,怎么解決
這個沒啥好說的,任何講深度學習的書和課程都有,看哪個都行2 batch normalization
這個問題下的回答很有價值3 cnn rnn本質
這篇文章總結的很好4 梯度彌散/爆炸
沒有太好的文章,看看這篇講resnet的吧5 激活函數,比較
sigmod tanh relu maxout... 好多,這個隨便一搜就一堆,放一個不太切題的文章吧,我偶像何之源奆佬的回答,手動滑稽6 梯度下降優化
這就很多了,lan大神的花書講的就很好,博客也可以看這個7 各種網絡結構
這個就太多了,cnn的 rnn的,細分還有很多,多看多熟悉吧(3)傳統算法
很奇怪,反而這塊很不重視,考的題都很簡單
1 阿里在線編程測試
給一個圓,切成n個扇形,涂m種顏色,要求任意兩個相鄰扇形顏色不同
思路:首先不考慮首尾位置的扇形是否顏色相同,那么總共是 種,
2 騰訊二面 面試官隨手問的一個問題
是分水嶺算法的一部分,問題可以如下描述:假設有一個單通道圖片,背景像素點值為0,中間的物體像素點值為1,求出所有物體像素點到背景的最短距離
思路:dp思想,查看鄰點,如果有一個是0,那么距離為1,否則該點的距離是鄰點中最短的距離+1,先掃描行,只關心行的不關心列,算出最短距離,再掃描列,只關心列不關心行,更新上一步掃描行后的結果,就是EDT算法,如果是歐式距離還要掃描斜邊
3 騰訊二三面之間的筆試題
有n堆石子,第i堆石子的重量是w[i],每次合并兩堆石子,并計算分數,比如,兩堆石子是x,y,合并后是x+y 分數是xy,一直合并下去,直到只剩一堆石子,求最大累積分數
思路: 一眼看到合并就是哈夫曼樹唄,區別就是哈夫曼樹分數是x+y,這個是x 一眼看到合并就是哈夫曼樹唄,區別就是哈夫曼樹分數是x+y,這個是x*y,那么每次取兩個最大就行了,優先隊列,彈出兩個最大的相加計算乘積分數,然后結果扔進隊列,直到隊列只剩一個元素
(4)數字圖像處理和模式識別
這部分只被問了這一個問題
1 Sobel、canny 算子 邊緣檢測算子看這個
(5)信息論
信息熵、條件熵、互信息、信息增益 等等的計算,騰訊現場筆試考的,具體的題忘了。。。
(6)概率論
1 概率分布的相關計算
2 假設檢驗
這部分看看本科的課本吧,都有的,概率論的題考的比較活
轉載于:https://www.cnblogs.com/shiML/p/8734499.html
總結
以上是生活随笔為你收集整理的机器学习/深度学习 问题总结及解答的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Django内置的分页模块
- 下一篇: 软件测试第四周作业WordCount优化