刷题笔记2
1、若一序列進棧順序為a1,a2,a3,a4,問存在多少種可能的出棧序列( )
A 12? ? ? ? ? ? B 13? ? ? ? ? ?C 14? ? ? ? ? ?D 15
答案:C
2、下列屬于有監督學習算法的是:()
A 譜聚類? ? ? ? B 主成分分析PCA? ? ? ? C 主題模型LDA? ? ? ?D 線性判別分析LDA
答案:D
3、以下是產生式模型的機器學習算法為:
A LR? ? ? ? ? ? ?B? ?SVM? ? ? ? ?C 神經網絡? ? ? ? ? ?D HMM
答案:D
4、一個序列為(13,18,24,35,47,50,63,83,90,115,124),如果利二分分法查找關鍵字為90的,則需要幾次比較 ?
A 1? ? ? ? ? ? ?B 2? ? ? ? ? ? ? ? C? ? 3? ? ? ? ? ? ? ? ? ? ? D 4
答案:B
5、已知一個二叉樹前序遍歷和中序遍歷分別為ABDEGCFH和DBGEACHF,則該二叉樹的后序遍歷為?
A、DGEBHFCA? ? ? ? ? ? B.DGEBHFAC? ? ? ? ? ? C.?GEDBHFCA? ? ? ? ? ? ?D.??ABCDEFGH
答案:A
其實根據前序遍歷和中序遍歷就能確定根節點是A,D是最下層最左邊的節點。
6、以下關于共軛梯度說法正確的是
A共軛梯度需要計算hessien矩陣的逆? ? ? ? ? ? ? ? ? ?B共軛梯度只需要一階梯度即可,所以收斂速度較慢
C共軛梯度法所需的存儲量小,收斂快,穩定性高的優點? ? ? ? ?D共軛梯度梯度方向與最速下降法的梯度相同
答案:C
7、以下關于準確率,召回, f1-score說法錯誤的是:
A準確率為TP/(TP+FP)? ? ? ? ? ??B召回率為TP/(TP + FN)? ? ? ? ? ? ?
C?f1-score為 2TP/(2TP + FP + FN)? ? ? ? ??D??f1-score為 準確率*召回率/(準確率+召回率)
答案:D
8、在貝葉斯線性回歸中, 假定使然概率和先驗概率都為高斯分布, 假設先驗概率的高斯準確率參數為a, 似然概率的高斯準確率參數為b, 則后驗概率相當于平方誤差+L2正則,則其正則化參數為
A?a + b? ? ? ? ? ? ? ? ? ??B?a / b? ? ? ? ? ? ??C? a^2 + b^2? ? ? ? ??D??a^2 / (b^2)
答案:A
沒找到相關資料,誰知道跟我解釋下吧
9、在以下操作中,把14,27,71,50,93,39按順序插入樹,形成平衡二叉樹高度為?
A 3? ? ? ? ? ? B 4? ? ? ? ? ?C 5? ? ? ? ? ? ?D 6
答案:A
10、兩個隨機變量x,y,服從聯合概率分布p(x,y), 以下等式成立的有
A? ? ??B? ?C? ? ? ?D
答案:AC
11、以下關于batch normalization說法正確的是
A?normalization的均值方差計算是基于全部訓練數據的
B?normalization的均值方差只基于當前的minibatch
C?normalization對輸入層的每一維單獨計算均值方差
D?normalization的輸出分布服從均值為0,方差為1的高斯分布
答案:BC
12、以下關于二項分布說法正確的是
A?二項分布是一種離散概率分布,表示在n次伯努利試驗中, 試驗k次才得到第一次成功的概率
B?二項分布是一種離散概率分布,表示在n次伯努利試驗中,有k次成功的概率
C?當n很大時候,二項分布可以用泊松分布和高斯分布逼近
D?當n很大時候,二項分布可以高斯斯分布逼近,但不能用泊松分布逼近
答案:BC
13、以下關于random forest說法錯誤的是
A?rf中的每棵子樹都是獨立同分布的
B?rf中模型方差隨著子樹的增加而減少
C?rf主要通過增加子樹之間的相關性來減少模型的方差
D??rf中模型偏差隨著子樹的增加而減少
答案: AD
14、在機器學習中,經常采用線性變換,將基變換為正交基, 下列矩陣式正交矩陣的是? ??
A?
B?
C?
D?
答案:AC
The orthogonal matrix,正交矩陣,如果一個矩陣滿足以下幾個條件,則此矩陣就是正交矩陣:
(1)是一個方陣
(2)和自己的轉置矩陣的矩陣乘積 = 單位矩陣E
如果A為一個正交矩陣,則A滿足以下條件:
1) A的轉置矩陣也是正交矩陣
2)??(E為單位矩陣)
3) A的各行是單位向量且兩兩正交
4) A的各列是單位向量且兩兩正交
5) (Ax,Ay)=(x,y) x,y∈R
6) |A| = 1或-1
7)??,A的轉置矩陣等于A的逆矩陣
15、關于x,y的函數f(x,y)=x*e^(-x^2-y^2),(x,y∈R),則該函數有_____個極小值點
A 0? ? ? ? ? ? ? ? ?B 1? ? ? ? ? ? ? ?C 2? ? ? ? ? ? ? ? ? ? D 3
答案:B
16、隨機變量X1,X2...X100都服從[1,9]的均勻分布,則(X1+X2+...+X100)/100近似服從
A 高斯分布? ? ? ? ? ?B 泊松分布? ? ? ? ?C 均勻分布? ? ? ? ? ? D 指數分布
答案:高斯分布
對于服從均勻分布的隨機變量,只要n充分大,隨機變量?就服從均值為零,方差為1的正態分布。
17、某二叉樹有2000個結點,則該二叉樹的最小高度為()
A 10? ? ? ? ? ? ?B 11? ? ? ? ? ? ? C 12? ? ? ? ? ? ? ? ?D 13
答案:B
節點與深度的關系:2^k -1 =n
18、下列方面不可以防止過擬合的是()
A?加入正則項? ? ? ? ? ??B?增加樣本? ? ? ? ?C?建立更加復雜的模型? ? ?D?Bootstrap重采樣
答案:C
19、使用中根遍歷一棵二叉樹得到E A C K F H D B G,則先根遍歷將得到()
A? ??FAEKCDBHG? ? ? ? ? ? ? ? ? ? ? ?B? ? FAEKCDHGB? ? ? ? ? ? ??C??EAFKHDCBG? ? ? ? ??D? ?FEAKDCHBG
答案:B
20、以下哪些模型是無向圖
A 樸素貝葉斯? ? ? ? ? B LR? ? ? ? ? ?C? CRF? ? ? ? D HMM
答案:BC
21、協同過濾經常被用于推薦系統, 包含基于內存的協同過濾, 基于模型的協同過濾以及混合模型, 以下說法正確的是
A基于模型的協同過濾能比較好的處理數據稀疏的問題
B基于模型的協同過濾不需要item的內容信息
C基于內存的協同過濾可以較好解決冷啟動問題
D基于內存的協同過濾實現比較簡單, 新數據可以較方便的加入
答案:AD
22、以下關于神經網絡說法正確的是
A神經網絡可以實現非線性分類
B神經網絡可以實現線性分類
C神經網絡的每層神經元激活函數必須相同
D神經網絡的每層神經元激活函數值閾必須在[-1,1]
答案:AB
23、以下為防止過擬合的方法的是
A增加樣本? ? ? ? ?B?L1正則? ??C交叉驗證? ? ?D增加復雜特征
答案:ABC
24、CRF模型可以用來做專名識別, 語義消歧等, 以下關于CRF模型說法正確的是
A? ?CRF模型是產生式模型? ? ? ? ? ? B? ?CRF模型是判別式模型? ? ? ? ?C??CRF模型的圖模型為無向圖? ??D?CRF模型的圖模型為有向圖
答案:BC
25、以下屬于凸函數的是()
A?e^x? ? ? ? ? ? ??B??e^a? ? ? ? ?C??log(x)? ? ? ??D??f(x, y) = x2/y
答案:AD
26、以下說法正確的是
A?XOR問題不能簡單的用線性分類解決
B?XOR問題可以通過2層感知器解決
C?XOR可以通過LR模型解決
D?XOR可以通過單層感知器解決
答案:AB
27、以下是基于圖的特征降維方法的是
A? ?LE(Laplacian eigenmap)? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??B??LLE(local linear embedding)
C??PCA? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?D??KL
答案:AB
Principal Component Analysis(PCA)是最常用的線性降維方法,它的目標是通過某種線性投影,將高維的數據映射到低維的空間中表示,并期望在所投影的維度上數據的方差最大,以此使用較少的數據維度,同時保留住較多的原數據點的特性。
Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一種有監督的(supervised)線性降維算法。與PCA保持數據信息不同,LDA是為了使得降維后的數據點盡可能地容易被區分!
Locally linear embedding(LLE)[1]是一種非線性降維算法,它能夠使降維后的數據較好地保持原有流形結構。LLE可以說是流形學習方法最經典的工作之一。很多后續的流形學習、降維方法都與LLE有密切聯系。
Laplacian Eigenmaps(拉普拉斯特征映射)看問題的角度和LLE有些相似,也是用局部的角度去構建數據之間的關系。它的直觀思想是希望相互間有關系的點(在圖中相連的點)在降維后的空間中盡可能的靠近。Laplacian Eigenmaps可以反映出數據內在的流形結構。
其中最后后兩種是基于圖的特征降維方法。
28、使用LR來擬合數據, 一般隨機將數據分為訓練集和測試集。 則隨著訓練集合的數據越來越多, 以下說法正確的是
A測試集上的測試誤差會越來越大
B測試集上的測試誤差會越來越小
C訓練集上的訓練誤差會越來越小
D訓練集上的訓練誤差會越來越大
答案:BD
前提:測試數據不變,只增加訓練數據
1.減少過擬合,泛化更好,測試誤差變小
2.訓練集多樣性增加,數據輸入分布改變,訓練誤差變大
29、有A,B 兩個國家,人口比例為4:6,A國的犯罪率為0.1%,B國的為0.2%?,F在有一個新的犯罪事件,發生在A國的概率是?
A0.15? ? ? ? ? ? ? B0.25? ? ? ? ? ? ? ? ?C 0.35? ? ? ? ? ? D 0.45
答案:0.25
總結
- 上一篇: DFRobot新品Fermion:MCP
- 下一篇: 劳易测激光测距仪ODS9L2.8/LAK