ML之xgboost:利用xgboost算法(sklearn+7CrVa)训练mushroom蘑菇数据集(22+1,6513+1611)来预测蘑菇是否毒性(二分类预测)
生活随笔
收集整理的這篇文章主要介紹了
ML之xgboost:利用xgboost算法(sklearn+7CrVa)训练mushroom蘑菇数据集(22+1,6513+1611)来预测蘑菇是否毒性(二分类预测)
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
?ML之xgboost:利用xgboost算法(sklearn+7CrVa)訓(xùn)練mushroom蘑菇數(shù)據(jù)集(22+1,6513+1611)來預(yù)測蘑菇是否毒性(二分類預(yù)測)
?
?
目錄
輸出結(jié)果
設(shè)計思路
核心代碼
?
?
?
?
輸出結(jié)果
?
?
?
設(shè)計思路
?
?
核心代碼
kfold = StratifiedKFold(n_splits=10, random_state=7) #fit_params = {'eval_metric':"logloss"} #results = cross_val_score(bst, X_train, y_train, cv=kfold, fit_params) results = cross_val_score(bst, X_train, y_train, cv=kfold) print(results) print("7-CrVa Accuracy Mean(STD): %.2f%% (%.2f%%)" % (results.mean()*100, results.std()*100)) #輸出x = range(0,len(results)) y1 = results y2 = [results.mean()]*10 Xlabel = 'n_splits' Ylabel = 'Accuracy' title = 'mushroom datase: xgboost(sklearn+7CrVa) model'plt.plot(x,y1,'g') #繪制曲線 plt.plot(x,y2,'r--') #平均值曲線 plt.xlabel(Xlabel) plt.ylabel(Ylabel) plt.title(title) plt.show()?
?
?
總結(jié)
以上是生活随笔為你收集整理的ML之xgboost:利用xgboost算法(sklearn+7CrVa)训练mushroom蘑菇数据集(22+1,6513+1611)来预测蘑菇是否毒性(二分类预测)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ML之xgboost:利用xgboost
- 下一篇: ML之xgboost:利用xgboost