oxford5k和paris6k数据集介绍_sklearn函数:KFold(分割训练集和测试集)
生活随笔
收集整理的這篇文章主要介紹了
oxford5k和paris6k数据集介绍_sklearn函数:KFold(分割训练集和测试集)
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
上一篇介紹了train_test_split函數:
橘貓吃不胖:sklearn函數:train_test_split(分割訓練集和測試集)?zhuanlan.zhihu.com主要場景是,我們想要將原始數據分割為訓練集和測試集,但是會有一些問題
比如,過渡擬合(a risk of overfittingon the test set)
其中一個方法是,再拆分出來一個驗證集,先用訓練集訓練模型,然后使用驗證集來校驗,最后去測試集,但是這個方法很明顯的問題是,大大減少了訓練集的樣本數。
另一種比較好的方案就是cross-validation (CV for short),交叉驗證
基本的思路是:k-fold CV,也就是我們下面要用到的函數KFold,是把原始數據分割為K個子集,每次會將其中一個子集作為測試集,其余K-1個子集作為訓練集。
下圖是官網提供的一個介紹圖,詳情介紹參考:https://scikit-learn.org/stable/modules/cross_validation.html
下面介紹函數的使用
classsklearn.model_selection.KFold(n_splits=5,*,shuffle=False,random_state=None)- n_splits:int, default=5
表示,要分割為多少個K子集
- shuffle:bool, default=False
是否要洗牌(打亂數據)
- random_state:int or RandomState instance, default=None
這和前一篇中提到的隨機狀態是一樣的,需要配合shuffle參數使用
小栗子
import numpy as np from sklearn.model_selection import KFoldX = np.random.randint(1,100,20).reshape((10,2)) Xkf = KFold(n_splits=5) kffor X_train,X_test in kf.split(X):print(X_train,X_test)for X_train_i,X_test_i in kf.split(X):print(X[X_train_i],X[X_test_i])總結
以上是生活随笔為你收集整理的oxford5k和paris6k数据集介绍_sklearn函数:KFold(分割训练集和测试集)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: cad输入法自动切换_百度输入法 Lin
- 下一篇: python编写程序输出诗句_Pytho