ML之xgboost:基于xgboost(5f-CrVa)算法对HiggsBoson数据集(Kaggle竞赛)训练(模型保存+可视化)实现二分类预测
生活随笔
收集整理的這篇文章主要介紹了
ML之xgboost:基于xgboost(5f-CrVa)算法对HiggsBoson数据集(Kaggle竞赛)训练(模型保存+可视化)实现二分类预测
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
ML之xgboost:基于xgboost(5f-CrVa)算法對(duì)HiggsBoson數(shù)據(jù)集(Kaggle競(jìng)賽)訓(xùn)練(模型保存+可視化)實(shí)現(xiàn)二分類預(yù)測(cè)
?
?
目錄
數(shù)據(jù)集簡(jiǎn)介
輸出結(jié)果
設(shè)計(jì)思路
核心代碼
?
?
?
?
數(shù)據(jù)集簡(jiǎn)介
Dataset之HiggsBoson:Higgs Boson(Kaggle競(jìng)賽)數(shù)據(jù)集的簡(jiǎn)介、下載、案例應(yīng)用之詳細(xì)攻略
?
?
輸出結(jié)果
更新中……
1、交叉訓(xùn)練時(shí)間比較長(zhǎng),大約需要20多分鐘。
?
?
?
設(shè)計(jì)思路
更新中……
?
?
核心代碼
更新中……
num_round = 1000 n_estimators = cvresult.shape[0] print ('running cross validation, with preprocessing function')# do cross validation, for each fold # the dtrain, dtest, param will be passed into fpreproc # then the return value of fpreproc will be used to generate results of that fold cvresult = xgb.cv(param, dtrain, num_round, nfold=5, metrics={'ams@0.15', 'auc'}, early_stopping_rounds=10, seed = 0, fpreproc = fpreproc) print ('finish cross validation','\n',cvresult) print ('train model using the best parameters by cv ... ') bst = xgb.train( param, dtrain, n_estimators ) bst.save_model('data_input/xgboost/data_higgsboson/higgs_cv.model')?
?
?
?
《新程序員》:云原生和全面數(shù)字化實(shí)踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的ML之xgboost:基于xgboost(5f-CrVa)算法对HiggsBoson数据集(Kaggle竞赛)训练(模型保存+可视化)实现二分类预测的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Dataset之HiggsBoson:H
- 下一篇: ML之xgboost:基于xgboost