sklearn API 文档
所有函數(shù)和類的確切API,由docstrings給出。API會為所有功能提供預(yù)期類型和允許的功能,以及可用于算法的所有參數(shù)。
原文鏈接 :?http://scikit-learn.org/stable/modules/classes.html
譯文鏈接 :?http://cwiki.apachecn.org/pages/viewpage.action?pageId=10030193
貢獻(xiàn)者 :?片刻?ApacheCN?Apache中文網(wǎng)
這是scikit學(xué)習(xí)的類和函數(shù)參考。有關(guān)詳細(xì)信息,請參閱完整的用戶指南,因為類和功能原始規(guī)格可能不足以給出其使用的完整指導(dǎo)。
sklearn.base: Base classes and utility functions(基類和效用函數(shù))
所有估計量的基類。
基礎(chǔ)類
| base.BaseEstimator | scikit學(xué)習(xí)中所有估計的基礎(chǔ)類 |
| base.ClassifierMixin | 所有分類器的混合類在scikit學(xué)習(xí) |
| base.ClusterMixin | 所有聚類估計器的混合類在scikit學(xué)習(xí)中 |
| base.RegressorMixin | 所有回歸估計器的混合類在scikit學(xué)習(xí) |
| base.TransformerMixin | 所有變壓器的混合類在scikit學(xué)習(xí) |
?
函數(shù)
| base.clone(estimator[,?safe]) | 構(gòu)造具有相同參數(shù)的新估計器 |
?
sklearn.cluster: Clustering(聚類)
該sklearn.cluster模塊收集流行的無監(jiān)督聚類算法。
用戶指南:有關(guān)詳細(xì)信息,請參閱“?集群”部分。
類
| cluster.AffinityPropagation([damping,?...]) | 執(zhí)行親和度傳播數(shù)據(jù)聚類 |
| cluster.AgglomerativeClustering([...]) | 集聚聚類 |
| cluster.Birch([threshold,?branching_factor,?...]) | 實(shí)現(xiàn)Birch聚類算法 |
| cluster.DBSCAN([eps,?min_samples,?metric,?...]) | 從矢量陣列或距離矩陣執(zhí)行DBSCAN聚類 |
| cluster.FeatureAgglomeration([n_clusters,?...]) | 聚集特征 |
| cluster.KMeans([n_clusters,?init,?n_init,?...]) | K均值聚類 |
| cluster.MiniBatchKMeans([n_clusters,?init,?...]) | 小批量K均值聚類 |
| cluster.MeanShift([bandwidth,?seeds,?...]) | 使用平坦內(nèi)核的平均移位聚類 |
| cluster.SpectralClustering([n_clusters,?...]) | 將聚類應(yīng)用于對規(guī)范化拉普拉斯算子的投影 |
?
函數(shù)
| cluster.estimate_bandwidth(X[,?quantile,?...]) | 估計與平均移位算法一起使用的帶寬 |
| cluster.k_means(X,?n_clusters[,?init,?...]) | K均值聚類算法 |
| cluster.ward_tree(X[,?connectivity,?...]) | 基于特征矩陣的區(qū)域聚類 |
| cluster.affinity_propagation(S[,?...]) | 執(zhí)行親和度傳播數(shù)據(jù)聚類 |
| cluster.dbscan(X[,?eps,?min_samples,?...]) | 從矢量陣列或距離矩陣執(zhí)行DBSCAN聚類 |
| cluster.mean_shift(X[,?bandwidth,?seeds,?...]) | 使用平坦的內(nèi)核執(zhí)行數(shù)據(jù)的平均移位聚類 |
| cluster.spectral_clustering(affinity[,?...]) | 將聚類應(yīng)用于對規(guī)范化拉普拉斯算子的投影 |
?
sklearn.cluster.bicluster: Biclustering(雙聚類)
光譜雙聚類算法。
作者:Kemal Eren許可證:BSD 3條款
用戶指南:有關(guān)詳細(xì)信息,請參閱Biclustering部分。
類
| SpectralBiclustering([n_clusters,?method,?...]) | 光譜雙聚類(Kluger,2003) |
| SpectralCoclustering([n_clusters,?...]) | 光譜共聚焦算法(Dhillon,2001) |
?
sklearn.covariance: Covariance Estimators(協(xié)方差估計)
該sklearn.covariance模塊包括方法和算法,以魯棒地估計給定一組點(diǎn)的特征的協(xié)方差。定義為協(xié)方差的倒數(shù)的精度矩陣也被估計。協(xié)方差估計與高斯圖形模型的理論密切相關(guān)。
用戶指南:有關(guān)詳細(xì)信息,請參見協(xié)方差估計部分。
| covariance.EmpiricalCovariance([...]) | 最大似然協(xié)方差估計 |
| covariance.EllipticEnvelope([...]) | 用于檢測高斯分布數(shù)據(jù)集中異常值的對象 |
| covariance.GraphLasso([alpha,?mode,?tol,?...]) | 具有l(wèi)1懲罰估計量的稀疏逆協(xié)方差估計 |
| covariance.GraphLassoCV([alphas,?...]) | 稀疏逆協(xié)方差與交叉驗證的l1罰款的選擇 |
| covariance.LedoitWolf([store_precision,?...]) | LedoitWolf估計 |
| covariance.MinCovDet([store_precision,?...]) | 最小協(xié)方差決定因素(MCD):協(xié)方差的robust估計 |
| covariance.OAS([store_precision,?...]) | Oracle近似收縮估計 |
| covariance.ShrunkCovariance([...]) | 協(xié)變量估計與收縮 |
| covariance.empirical_covariance(X[,?...]) | 計算最大似然協(xié)方差估計 |
| covariance.ledoit_wolf(X[,?assume_centered,?...]) | 估計縮小的Ledoit-Wolf協(xié)方差矩陣 |
| covariance.shrunk_covariance(emp_cov[,?...]) | 計算對角線上收縮的協(xié)方差矩陣 |
| covariance.oas(X[,?assume_centered]) | 使用Oracle近似收縮算法估計協(xié)方差 |
| covariance.graph_lasso(emp_cov,?alpha[,?...]) | l1懲罰協(xié)方差估計 |
?
sklearn.model_selection: Model Selection(模型選擇)
用戶指南:請參閱交叉驗證:評估估計器性能,調(diào)整估計器的超參數(shù)和?學(xué)習(xí)曲線部分以獲取更多詳細(xì)信息。
分割器類
| model_selection.KFold([n_splits,?shuffle,?...]) | K-折疊交叉驗證器 |
| model_selection.GroupKFold([n_splits]) | 具有非重疊組的K-fold迭代器變體 |
| model_selection.StratifiedKFold([n_splits,?...]) | 分層K-折疊交叉驗證器 |
| model_selection.LeaveOneGroupOut() | 離開一組交叉驗證器 |
| model_selection.LeavePGroupsOut(n_groups) | 離開P組交叉驗證器 |
| model_selection.LeaveOneOut() | 一次性交叉驗證器 |
| model_selection.LeavePOut(p) | Leave-P-Out交叉驗證器 |
| model_selection.ShuffleSplit([n_splits,?...]) | 隨機(jī)置換交叉驗證器 |
| model_selection.GroupShuffleSplit([...]) | 隨機(jī)組 - 交叉驗證迭代器 |
| model_selection.StratifiedShuffleSplit([...]) | 分層ShuffleSplit交叉驗證器 |
| model_selection.PredefinedSplit(test_fold) | 預(yù)定義分裂交叉驗證器 |
| model_selection.TimeSeriesSplit([n_splits]) | 時間序列交叉驗證器 |
?
分割函數(shù)
| model_selection.train_test_split(\*arrays,?...) | 將陣列或矩陣拆分成隨機(jī)列和測試子集 |
| model_selection.check_cv([cv,?y,?classifier]) | 用于構(gòu)建交叉驗證器的輸入檢查器實(shí)用程序 |
?
超參數(shù)優(yōu)化
| model_selection.GridSearchCV(estimator,?...) | 對估計器的指定參數(shù)值進(jìn)行詳盡搜索 |
| model_selection.RandomizedSearchCV(...[,?...]) | 隨機(jī)搜索超參數(shù) |
| model_selection.ParameterGrid(param_grid) | 每個參數(shù)的網(wǎng)格具有離散數(shù)量的值 |
| model_selection.ParameterSampler(...[,?...]) | 發(fā)電機(jī)對從給定分布采樣的參數(shù) |
| model_selection.fit_grid_point(X,?y,?...[,?...]) | 適合一組參數(shù) |
?
模型驗證
| model_selection.cross_val_score(estimator,?X) | 通過交叉驗證評估分?jǐn)?shù) |
| model_selection.cross_val_predict(estimator,?X) | 為每個輸入數(shù)據(jù)點(diǎn)生成交叉驗證的估計 |
| model_selection.permutation_test_score(...) | 評估具有置換的交叉驗證分?jǐn)?shù)的意義 |
| model_selection.learning_curve(estimator,?X,?y) | 學(xué)習(xí)曲線 |
| model_selection.validation_curve(estimator,?...) | 驗證曲線 |
?
sklearn.datasets: Datasets(數(shù)據(jù)集)
該sklearn.datasets模塊包括用于加載數(shù)據(jù)集的實(shí)用程序,包括加載和獲取流行參考數(shù)據(jù)集的方法。它還具有一些人工數(shù)據(jù)生成器。
用戶指南:有關(guān)詳細(xì)信息,請參閱數(shù)據(jù)集加載實(shí)用程序部分。
裝載機(jī)
| datasets.clear_data_home([data_home]) | 刪除數(shù)據(jù)家庭緩存的所有內(nèi)容 |
| datasets.get_data_home([data_home]) | 返回scikit-learn數(shù)據(jù)目錄的路徑 |
| datasets.fetch_20newsgroups([data_home,?...]) | 加載20個新聞組數(shù)據(jù)集中的文件名和數(shù)據(jù) |
| datasets.fetch_20newsgroups_vectorized([...]) | 加載20個新聞組數(shù)據(jù)集并將其轉(zhuǎn)換為tf-idf向量 |
| datasets.load_boston([return_X_y]) | 加載并返回波士頓房價數(shù)據(jù)集(回歸) |
| datasets.load_breast_cancer([return_X_y]) | 加載并返回乳腺癌威斯康星數(shù)據(jù)集(分類) |
| datasets.load_diabetes([return_X_y]) | 加載并返回糖尿病數(shù)據(jù)集(回歸) |
| datasets.load_digits([n_class,?return_X_y]) | 加載并返回數(shù)字?jǐn)?shù)據(jù)集(分類) |
| datasets.load_files(container_path[,?...]) | 加載具有子文件夾名稱類別的文本文件 |
| datasets.load_iris([return_X_y]) | 加載并返回虹膜數(shù)據(jù)集(分類) |
| datasets.fetch_lfw_pairs([subset,?...]) | 在野外(LFW)對數(shù)據(jù)集中的標(biāo)記面的裝載程序 |
| datasets.fetch_lfw_people([data_home,?...]) | 野外(LFW)人物數(shù)據(jù)集中的標(biāo)記面的裝載程序 |
| datasets.load_linnerud([return_X_y]) | 加載并返回linnerud數(shù)據(jù)集(多元回歸) |
| datasets.mldata_filename(dataname) | 轉(zhuǎn)換mldata.org文件名中的數(shù)據(jù)集的原始名稱 |
| datasets.fetch_mldata(dataname[,?...]) | 獲取mldata.org數(shù)據(jù)集 |
| datasets.fetch_olivetti_faces([data_home,?...]) | Olivetti的裝載機(jī)面向AT&T的數(shù)據(jù)集 |
| datasets.fetch_california_housing([...]) | 來自StatLib的加州住房數(shù)據(jù)集的裝載機(jī) |
| datasets.fetch_covtype([data_home,?...]) | 加載封面類型數(shù)據(jù)集,必要時下載 |
| datasets.fetch_kddcup99([subset,?shuffle,?...]) | 加載并返回kddcup 99數(shù)據(jù)集(分類) |
| datasets.fetch_rcv1([data_home,?subset,?...]) | 加載RCV1 multilabel數(shù)據(jù)集,必要時下載 |
| datasets.load_mlcomp(name_or_id[,?set_,?...]) | 加載從http://mlcomp.org下載的數(shù)據(jù)集 |
| datasets.load_sample_image(image_name) | 加載單個樣本圖像的numpy數(shù)組 |
| datasets.load_sample_images() | 加載樣品圖像進(jìn)行圖像處理 |
| datasets.fetch_species_distributions([...]) | 來自Phillips等的物種分布數(shù)據(jù)集的裝載機(jī) |
| datasets.load_svmlight_file(f[,?n_features,?...]) | 將svmlight / libsvm格式的數(shù)據(jù)集加載到稀疏的CSR矩陣中 |
| datasets.load_svmlight_files(files[,?...]) | 從SVMlight格式的多個文件加載數(shù)據(jù)集 |
| datasets.dump_svmlight_file(X,?y,?f[,?...]) | 以svmlight / libsvm文件格式轉(zhuǎn)儲數(shù)據(jù)集 |
?
樣本生成器
| datasets.make_blobs([n_samples,?n_features,?...]) | 生成用于聚類的各向同性高斯斑點(diǎn) |
| datasets.make_classification([n_samples,?...]) | 生成隨機(jī)n類分類問題 |
| datasets.make_circles([n_samples,?shuffle,?...]) | 在2d中制作一個包含較小圓的大圓 |
| datasets.make_friedman1([n_samples,?...]) | 產(chǎn)生“Friedman#1”回歸問題 |
| datasets.make_friedman2([n_samples,?noise,?...]) | 產(chǎn)生“Friedman#2”回歸問題 |
| datasets.make_friedman3([n_samples,?noise,?...]) | 產(chǎn)生“Friedman#3”回歸問題 |
| datasets.make_gaussian_quantiles([mean,?...]) | 通過分位數(shù)生成各向同性高斯和標(biāo)簽樣本 |
| datasets.make_hastie_10_2([n_samples,?...]) | 生成Hastie等人使用的二進(jìn)制分類數(shù)據(jù) |
| datasets.make_low_rank_matrix([n_samples,?...]) | 生成具有鐘形奇異值的大多數(shù)低階矩陣 |
| datasets.make_moons([n_samples,?shuffle,?...]) | 使兩個交錯半圈 |
| datasets.make_multilabel_classification([...]) | 產(chǎn)生一個隨機(jī)多標(biāo)簽分類問題 |
| datasets.make_regression([n_samples,?...]) | 產(chǎn)生隨機(jī)回歸問題 |
| datasets.make_s_curve([n_samples,?noise,?...]) | 生成S曲線數(shù)據(jù)集 |
| datasets.make_sparse_coded_signal(n_samples,?...) | 生成信號作為字典元素的稀疏組合 |
| datasets.make_sparse_spd_matrix([dim,?...]) | 產(chǎn)生一個稀疏的對稱確定正矩陣 |
| datasets.make_sparse_uncorrelated([...]) | 生成稀疏不相關(guān)設(shè)計的隨機(jī)回歸問題 |
| datasets.make_spd_matrix(n_dim[,?random_state]) | 產(chǎn)生一個隨機(jī)對稱,正定矩陣 |
| datasets.make_swiss_roll([n_samples,?noise,?...]) | 生成瑞士卷數(shù)據(jù)集 |
| datasets.make_biclusters(shape,?n_clusters) | 生成一個具有恒定塊對角線結(jié)構(gòu)的陣列,用于二聚體 |
| datasets.make_checkerboard(shape,?n_clusters) | 生成具有塊棋盤結(jié)構(gòu)的數(shù)組,用于雙向聚集 |
?
sklearn.decomposition: Matrix Decomposition(矩陣分解)
該sklearn.decomposition模塊包括矩陣分解算法,其中包括PCA,NMF或ICA。該模塊的大多數(shù)算法可以被認(rèn)為是降維技術(shù)。
用戶指南:有關(guān)詳細(xì)信息,請參閱組件中的分解信號(矩陣分解問題)部分。
| decomposition.PCA([n_components,?copy,?...]) | 主成分分析(PCA) |
| decomposition.IncrementalPCA([n_components,?...]) | 增量主成分分析(IPCA) |
| decomposition.ProjectedGradientNMF(\*args,?...) | 非負(fù)矩陣因子分解(NMF) |
| decomposition.KernelPCA([n_components,?...]) | 內(nèi)核主成分分析(KPCA) |
| decomposition.FactorAnalysis([n_components,?...]) | 因子分析(FA) |
| decomposition.FastICA([n_components,?...]) | FastICA:獨(dú)立分量分析的快速算法。 |
| decomposition.TruncatedSVD([n_components,?...]) | 使用截斷的SVD(也稱為LSA)進(jìn)行尺寸縮小 |
| decomposition.NMF([n_components,?init,?...]) | 非負(fù)矩陣因子分解(NMF) |
| decomposition.SparsePCA([n_components,?...]) | 稀疏主成分分析(SparsePCA) |
| decomposition.MiniBatchSparsePCA([...]) | 小批量稀疏主成分分析 |
| decomposition.SparseCoder(dictionary[,?...]) | 稀疏編碼 |
| decomposition.DictionaryLearning([...]) | 詞典學(xué)習(xí) |
| decomposition.MiniBatchDictionaryLearning([...]) | 小批量字典學(xué)習(xí) |
| decomposition.LatentDirichletAllocation([...]) | 潛在的Dirichlet分配與在線變分貝葉斯算法 |
| decomposition.fastica(X[,?n_components,?...]) | 執(zhí)行快速獨(dú)立成分分析 |
| decomposition.dict_learning(X,?n_components,?...) | 解決詞典學(xué)習(xí)矩陣分解問題 |
| decomposition.dict_learning_online(X[,?...]) | 在線解決詞典學(xué)習(xí)矩陣分解問題 |
| decomposition.sparse_encode(X,?dictionary[,?...]) | 稀疏編碼 |
?
sklearn.dummy: Dummy estimators(虛擬估計)
用戶指南:有關(guān)詳細(xì)信息,請參閱模型評估:量化預(yù)測部分的質(zhì)量部分。
?
| dummy.DummyClassifier([strategy,?...]) | DummyClassifier是使用簡單規(guī)則進(jìn)行預(yù)測的分類器 |
| dummy.DummyRegressor([strategy,?constant,?...]) | DummyRegressor是使用簡單規(guī)則進(jìn)行預(yù)測的倒數(shù) |
?
sklearn.ensemble: Ensemble Methods(集成方法)
該sklearn.ensemble模塊包括用于分類,回歸和異常檢測的基于集成的方法。
用戶指南:有關(guān)詳細(xì)信息,請參閱“?集成方法”部分。
| ensemble.AdaBoostClassifier([...]) | 一個AdaBoost分類器 |
| ensemble.AdaBoostRegressor([base_estimator,?...]) | AdaBoost回歸器 |
| ensemble.BaggingClassifier([base_estimator,?...]) | Bagging分類器 |
| ensemble.BaggingRegressor([base_estimator,?...]) | Bagging回歸器 |
| ensemble.ExtraTreesClassifier([...]) | 一個額外的樹分類器 |
| ensemble.ExtraTreesRegressor([n_estimators,?...]) | 一個額外的樹回歸器 |
| ensemble.GradientBoostingClassifier([loss,?...]) | 梯度提升分類 |
| ensemble.GradientBoostingRegressor([loss,?...]) | 漸變提升回歸 |
| ensemble.IsolationForest([n_estimators,?...]) | 隔離森林算法 |
| ensemble.RandomForestClassifier([...]) | 隨機(jī)森林分類器 |
| ensemble.RandomTreesEmbedding([...]) | 一個完全隨機(jī)的樹的集成 |
| ensemble.RandomForestRegressor([...]) | 隨機(jī)森林回歸器 |
| ensemble.VotingClassifier(estimators[,?...]) | 軟投票/多數(shù)規(guī)則分類器 |
部分依賴
樹組合的部分依賴圖
| ensemble.partial_dependence.partial_dependence(...) | 部分依賴target_variables |
| ensemble.partial_dependence.plot_partial_dependence(...) | 部分依賴圖features |
?
sklearn.exceptions: Exceptions and warnings(異常和警告)
該sklearn.exceptions模塊包括在scikit學(xué)習(xí)中使用的所有自定義警告和錯誤類。
| exceptions.NotFittedError | 如果在擬合前使用估計器,則提升異常類 |
| exceptions.ChangedBehaviorWarning | 用于通知用戶任何行為變化的警告類 |
| exceptions.ConvergenceWarning | 捕捉收斂問題的自定義警告 |
| exceptions.DataConversionWarning | 警告用于通知代碼中發(fā)生的隱式數(shù)據(jù)轉(zhuǎn)換 |
| exceptions.DataDimensionalityWarning | 自定義警告,以通知數(shù)據(jù)維度的潛在問題 |
| exceptions.EfficiencyWarning | 用于通知用戶效率低下的警告 |
| exceptions.FitFailedWarning | 如果在擬合估計器時出現(xiàn)錯誤,則使用警告類 |
| exceptions.NonBLASDotWarning | 點(diǎn)操作不使用BLAS時使用的警告 |
| exceptions.UndefinedMetricWarning | 度量無效時使用的警告 |
?
sklearn.feature_extraction: Feature Extraction(特征提取)
該sklearn.feature_extraction模塊處理原始數(shù)據(jù)的特征提取。它目前包括從文本和圖像中提取特征的方法。
用戶指南:有關(guān)詳細(xì)信息,請參閱特征提取部分。
| feature_extraction.DictVectorizer([dtype,?...]) | 將特征值映射列表轉(zhuǎn)換為向量 |
| feature_extraction.FeatureHasher([...]) | 實(shí)現(xiàn)哈希功能,又稱哈希技巧 |
從圖像
該sklearn.feature_extraction.image子模塊收集實(shí)用程序從圖像中提取特征。
| feature_extraction.image.img_to_graph(img[,?...]) | 像素到像素梯度連接的圖形 |
| feature_extraction.image.grid_to_graph(n_x,?n_y) | 像素到像素連接的圖形 |
| feature_extraction.image.extract_patches_2d(...) | 將2D圖像重新整理成一組補(bǔ)丁 |
| feature_extraction.image.reconstruct_from_patches_2d(...) | 從所有補(bǔ)丁重構(gòu)圖像 |
| feature_extraction.image.PatchExtractor([...]) | 從圖像集中提取補(bǔ)丁 |
?
從文本
該sklearn.feature_extraction.text子模塊收集實(shí)用程序從文本文檔建立特征向量。
| feature_extraction.text.CountVectorizer([...]) | 將文本文檔的集合轉(zhuǎn)換為令牌計數(shù)矩陣 |
| feature_extraction.text.HashingVectorizer([...]) | 將文本文檔的集合轉(zhuǎn)換為令牌發(fā)生的矩陣 |
| feature_extraction.text.TfidfTransformer([...]) | 將計數(shù)矩陣轉(zhuǎn)換為標(biāo)準(zhǔn)化的tf或tf-idf表示 |
| feature_extraction.text.TfidfVectorizer([...]) | 將原始文檔的集合轉(zhuǎn)換為TF-IDF功能的矩陣 |
?
sklearn.feature_selection: Feature Selection(特征選擇)
該sklearn.feature_selection模塊實(shí)現(xiàn)特征選擇算法。它目前包括單變量篩選方法和遞歸特征消除算法。
用戶指南:有關(guān)詳細(xì)信息,請參閱功能選擇部分。
| feature_selection.GenericUnivariateSelect([...]) | 具有可配置策略的單變量特征選擇器 |
| feature_selection.SelectPercentile([...]) | 根據(jù)最高分?jǐn)?shù)百分位數(shù)選擇功能 |
| feature_selection.SelectKBest([score_func,?k]) | 根據(jù)k最高分選擇功能 |
| feature_selection.SelectFpr([score_func,?alpha]) | 過濾器:根據(jù)FPR測試選擇低于alpha的p值 |
| feature_selection.SelectFdr([score_func,?alpha]) | 過濾器:為估計的錯誤發(fā)現(xiàn)率選擇p值 |
| feature_selection.SelectFromModel(estimator) | 元變壓器,用于根據(jù)重要性權(quán)重選擇特征 |
| feature_selection.SelectFwe([score_func,?alpha]) | 過濾器:選擇對應(yīng)于同系誤差率的p值 |
| feature_selection.RFE(estimator[,?...]) | 功能排序與遞歸功能消除 |
| feature_selection.RFECV(estimator[,?step,?...]) | 功能排序與遞歸功能消除和交叉驗證選擇最佳數(shù)量的功能 |
| feature_selection.VarianceThreshold([threshold]) | 功能選擇器可刪除所有低方差特征 |
| feature_selection.chi2(X,?y) | 計算每個非負(fù)特征和類之間的平方統(tǒng)計 |
| feature_selection.f_classif(X,?y) | 計算提供的樣本的方差分析F值 |
| feature_selection.f_regression(X,?y[,?center]) | 單變量線性回歸測試 |
| feature_selection.mutual_info_classif(X,?y) | 估計離散目標(biāo)變量的互信息 |
| feature_selection.mutual_info_regression(X,?y) | 估計連續(xù)目標(biāo)變量的互信息 |
?
sklearn.gaussian_process: Gaussian Processes(高斯過程)
該sklearn.gaussian_process模塊實(shí)現(xiàn)了基于高斯過程的回歸和分類。
用戶指南:有關(guān)詳細(xì)信息,請參閱高斯過程部分。
| gaussian_process.GaussianProcessRegressor([...]) | 高斯過程回歸(GPR) |
| gaussian_process.GaussianProcessClassifier([...]) | 基于拉普拉斯逼近的高斯過程分類(GPC) |
內(nèi)核:
| gaussian_process.kernels.Kernel | 所有內(nèi)核的基類 |
| gaussian_process.kernels.Sum(k1,?k2) | 兩個內(nèi)核k1和k2的和核k1 + k2 |
| gaussian_process.kernels.Product(k1,?k2) | 兩個內(nèi)核k1和k2的產(chǎn)品內(nèi)核k1 * k2 |
| gaussian_process.kernels.Exponentiation(...) | 通過給定指數(shù)來指定內(nèi)核 |
| gaussian_process.kernels.ConstantKernel([...]) | 恒定內(nèi)核 |
| gaussian_process.kernels.WhiteKernel([...]) | 白內(nèi)核 |
| gaussian_process.kernels.RBF([length_scale,?...]) | 徑向基函數(shù)核(又稱平方指數(shù)核) |
| gaussian_process.kernels.Matern([...]) | Matern 內(nèi)核. |
| gaussian_process.kernels.RationalQuadratic([...]) | 理性二次內(nèi)核 |
| gaussian_process.kernels.ExpSineSquared([...]) | 正弦平方內(nèi)核 |
| gaussian_process.kernels.DotProduct([...]) | Dot-Product內(nèi)核 |
| gaussian_process.kernels.PairwiseKernel([...]) | 在sklearn.metrics.pairwise中的內(nèi)核包裝器 |
| gaussian_process.kernels.CompoundKernel(kernels) | 內(nèi)核由一組其他內(nèi)核組成 |
| gaussian_process.kernels.Hyperparameter | 內(nèi)核超參數(shù)的指定形式為namedtuple |
?
sklearn.isotonic: Isotonic regression(等式回歸)
用戶指南:有關(guān)詳細(xì)信息,請參閱等滲回歸部分。
| isotonic.IsotonicRegression([y_min,?y_max,?...]) | 等滲回歸模型 |
| isotonic.isotonic_regression(y[,?...]) | 求解等滲回歸模型: |
| isotonic.check_increasing(x,?y) | 確定y是否與x單調(diào)相關(guān) |
?
sklearn.kernel_approximation?Kernel Approximation(內(nèi)核近似)
該sklearn.kernel_approximation模塊基于傅里葉變換實(shí)現(xiàn)幾個近似核特征圖。
用戶指南:有關(guān)更多詳細(xì)信息,請參閱內(nèi)核近似部分。
| kernel_approximation.AdditiveChi2Sampler([...]) | 加性chi2核的近似特征圖 |
| kernel_approximation.Nystroem([kernel,?...]) | 使用訓(xùn)練數(shù)據(jù)的子集近似一個內(nèi)核映射 |
| kernel_approximation.RBFSampler([gamma,?...]) | 通過其傅立葉變換的Monte Carlo近似近似RBF核的特征圖 |
| kernel_approximation.SkewedChi2Sampler([...]) | 通過其傅立葉變換的蒙特卡羅近似近似的“偏斜卡方”核的特征圖 |
?
sklearn.kernel_ridge?Kernel Ridge Regression(內(nèi)核嶺回歸)
模塊sklearn.kernel_ridge實(shí)現(xiàn)內(nèi)核脊回歸。
用戶指南:有關(guān)更多詳細(xì)信息,請參閱Kernel ridge回歸部分。
| kernel_ridge.KernelRidge([alpha,?kernel,?...]) | 內(nèi)核嶺回歸 |
?
sklearn.discriminant_analysis: Discriminant Analysis(判別分析)
線性判別分析和二次判別分析
用戶指南:有關(guān)詳細(xì)信息,請參閱線性和二次判別分析部分。
| discriminant_analysis.LinearDiscriminantAnalysis([...]) | 線性判別分析 |
| discriminant_analysis.QuadraticDiscriminantAnalysis([...]) | 二次判別分析 |
?
sklearn.linear_model: Generalized Linear Models(廣義線性模型)
該sklearn.linear_model模塊實(shí)現(xiàn)廣義線性模型。它包括利用最小角度回歸和坐標(biāo)下降計算的嶺回歸,貝葉斯回歸,套索和彈性網(wǎng)估計。它還實(shí)現(xiàn)隨機(jī)梯度下降相關(guān)算法。
用戶指南:有關(guān)詳細(xì)信息,請參閱“?廣義線性模型”一節(jié)。
| linear_model.ARDRegression([n_iter,?tol,?...]) | 貝葉斯ARD回歸 |
| linear_model.BayesianRidge([n_iter,?tol,?...]) | 貝葉斯脊回歸 |
| linear_model.ElasticNet([alpha,?l1_ratio,?...]) | 線性回歸與組合L1和L2先驗作為正則化器 |
| linear_model.ElasticNetCV([l1_ratio,?eps,?...]) | 彈性網(wǎng)模型沿正則化路徑迭代擬合 |
| linear_model.HuberRegressor([epsilon,?...]) | 線性回歸模型,對離群值是robust |
| linear_model.Lars([fit_intercept,?verbose,?...]) | 最小角度回歸模型 |
| linear_model.LarsCV([fit_intercept,?...]) | 交叉驗證的最小二乘回歸模型 |
| linear_model.Lasso([alpha,?fit_intercept,?...]) | 線性模型訓(xùn)練用L1作為矯正器(又名拉索) |
| linear_model.LassoCV([eps,?n_alphas,?...]) | 拉索線性模型,沿正則化路徑迭代擬合 |
| linear_model.LassoLars([alpha,?...]) | Lasso模型也適合最小角度回歸 |
| linear_model.LassoLarsCV([fit_intercept,?...]) | 使用LARS算法進(jìn)行交叉驗證的Lasso |
| linear_model.LassoLarsIC([criterion,?...]) | Lasso模型適合Lars使用BIC或AIC進(jìn)行型號選擇 |
| linear_model.LinearRegression([...]) | 普通最小二乘線性回歸 |
| linear_model.LogisticRegression([penalty,?...]) | Logistic回歸(又名logit,MaxEnt)分類器 |
| linear_model.LogisticRegressionCV([Cs,?...]) | Logistic回歸CV(又名logit,MaxEnt)分類器 |
| linear_model.MultiTaskLasso([alpha,?...]) | 用L1 / L2混合規(guī)范訓(xùn)練的多任務(wù)Lasso模型作為正則化器 |
| linear_model.MultiTaskElasticNet([alpha,?...]) | 用L1 / L2混合規(guī)范訓(xùn)練的多任務(wù)ElasticNet模型作為正則化程序 |
| linear_model.MultiTaskLassoCV([eps,?...]) | 多任務(wù)L1 / L2 Lasso內(nèi)置交叉驗證 |
| linear_model.MultiTaskElasticNetCV([...]) | 多任務(wù)L1 / L2 ElasticNet內(nèi)置交叉驗證 |
| linear_model.OrthogonalMatchingPursuit([...]) | 正交匹配追蹤模型(OMP) |
| linear_model.OrthogonalMatchingPursuitCV([...]) | 交叉驗證的正交匹配追蹤模型(OMP) |
| linear_model.PassiveAggressiveClassifier([...]) | 被動侵略分類器 |
| linear_model.PassiveAggressiveRegressor([C,?...]) | 被動侵略者 |
| linear_model.Perceptron([penalty,?alpha,?...]) | 在“?用戶指南”中內(nèi)容。 |
| linear_model.RandomizedLasso([alpha,?...]) | 隨機(jī)拉索 |
| linear_model.RandomizedLogisticRegression([...]) | 隨機(jī)邏輯回歸 |
| linear_model.RANSACRegressor([...]) | RANSAC(RANdom SAmple Consensus)算法 |
| linear_model.Ridge([alpha,?fit_intercept,?...]) | 具有l(wèi)2正則化的線性最小二乘法 |
| linear_model.RidgeClassifier([alpha,?...]) | 分類器使用Ridge回歸 |
| linear_model.RidgeClassifierCV([alphas,?...]) | 里奇分類器內(nèi)置交叉驗證 |
| linear_model.RidgeCV([alphas,?...]) | 里奇回歸與內(nèi)置交叉驗證 |
| linear_model.SGDClassifier([loss,?penalty,?...]) | 線性分類器(SVM,邏輯回歸,ao)與SGD訓(xùn)練 |
| linear_model.SGDRegressor([loss,?penalty,?...]) | 通過使用SGD最小化正則化經(jīng)驗損失擬合的線性模型 |
| linear_model.TheilSenRegressor([...]) | Theil-Sen估計:強(qiáng)大的多變量回歸模型 |
| linear_model.lars_path(X,?y[,?Xy,?Gram,?...]) | 使用LARS算法計算最小角度回歸或套索路徑[1] |
| linear_model.lasso_path(X,?y[,?eps,?...]) | 計算具有坐標(biāo)下降的Lasso路徑 |
| linear_model.lasso_stability_path(X,?y[,?...]) | 基于隨機(jī)拉索估計的穩(wěn)定性路徑 |
| linear_model.logistic_regression_path(X,?y) | 為正則化參數(shù)列表計算邏輯回歸模型 |
| linear_model.orthogonal_mp(X,?y[,?...]) | 正交匹配追蹤(OMP) |
| linear_model.orthogonal_mp_gram(Gram,?Xy[,?...]) | 革命正交匹配追蹤(OMP) |
?
sklearn.manifold: Manifold Learning(歧管學(xué)習(xí))
該sklearn.manifold模塊實(shí)現(xiàn)數(shù)據(jù)嵌入技術(shù)。
用戶指南:有關(guān)詳細(xì)信息,請參閱歧管學(xué)習(xí)部分。
| manifold.LocallyLinearEmbedding([...]) | 局部線性嵌入 |
| manifold.Isomap([n_neighbors,?n_components,?...]) | Isomap嵌入 |
| manifold.MDS([n_components,?metric,?n_init,?...]) | 多維縮放 |
| manifold.SpectralEmbedding([n_components,?...]) | 用于非線性維數(shù)降低的光譜嵌入 |
| manifold.TSNE([n_components,?perplexity,?...]) | t分布隨機(jī)相鄰嵌入 |
| manifold.locally_linear_embedding(X,?...[,?...]) | 對數(shù)據(jù)進(jìn)行局部線性嵌入分析 |
| manifold.spectral_embedding(adjacency[,?...]) | 將樣本投影在拉普拉斯算子的第一個特征向量上 |
?
sklearn.metrics: Metrics(指標(biāo))
有關(guān)詳細(xì)信息,請參閱模型評估:量化用戶指南的預(yù)測部分的質(zhì)量部分和成對度量度,親和力和內(nèi)核部分。
該sklearn.metrics模塊包括分?jǐn)?shù)函數(shù),性能度量和成對度量和距離計算。
選型接口
有關(guān)詳細(xì)信息,請參閱評分參數(shù):定義用戶指南的模型評估規(guī)則部分。
| metrics.make_scorer(score_func[,?...]) | 從表現(xiàn)指標(biāo)或損失函數(shù)中取得記分員 |
| metrics.get_scorer(scoring) | ? |
?
分類度量
有關(guān)詳細(xì)信息,請參閱用戶指南的“?分類指標(biāo)”部分。
| metrics.accuracy_score(y_true,?y_pred[,?...]) | 準(zhǔn)確度分級得分 |
| metrics.auc(x,?y[,?reorder]) | 曲線下的計算面積(AUC)使用梯形規(guī)則 |
| metrics.average_precision_score(y_true,?y_score) | 從預(yù)測分?jǐn)?shù)計算平均精度(AP) |
| metrics.brier_score_loss(y_true,?y_prob[,?...]) | 計算Brier分?jǐn)?shù) |
| metrics.classification_report(y_true,?y_pred) | 構(gòu)建一個顯示主要分類指標(biāo)的文本報告 |
| metrics.cohen_kappa_score(y1,?y2[,?labels,?...]) | 科恩的kappa:衡量標(biāo)注者間協(xié)議的統(tǒng)計 |
| metrics.confusion_matrix(y_true,?y_pred[,?...]) | 計算混淆矩陣來評估分類的準(zhǔn)確性 |
| metrics.f1_score(y_true,?y_pred[,?labels,?...]) | 計算F1分?jǐn)?shù),也稱為平衡F分?jǐn)?shù)或F度量 |
| metrics.fbeta_score(y_true,?y_pred,?beta[,?...]) | 計算F-beta分?jǐn)?shù) |
| metrics.hamming_loss(y_true,?y_pred[,?...]) | 計算平均漢明損失 |
| metrics.hinge_loss(y_true,?pred_decision[,?...]) | 平均鉸鏈損失(非正規(guī)化) |
| metrics.jaccard_similarity_score(y_true,?y_pred) | Jaccard相似系數(shù)得分 |
| metrics.log_loss(y_true,?y_pred[,?eps,?...]) | 對數(shù)損失,又稱物流損失或交叉熵?fù)p失 |
| metrics.matthews_corrcoef(y_true,?y_pred[,?...]) | 計算二進(jìn)制類的馬修斯相關(guān)系數(shù)(MCC) |
| metrics.precision_recall_curve(y_true,?...) | 計算不同概率閾值的?precision-recall?對 |
| metrics.precision_recall_fscore_support(...) | 計算每個課程的precision,recall,F度量和支持 |
| metrics.precision_score(y_true,?y_pred[,?...]) | 計算precision |
| metrics.recall_score(y_true,?y_pred[,?...]) | 計算recall |
| metrics.roc_auc_score(y_true,?y_score[,?...]) | 曲線下的計算面積(AUC)來自預(yù)測分?jǐn)?shù) |
| metrics.roc_curve(y_true,?y_score[,?...]) | 計算接收器工作特性(ROC) |
| metrics.zero_one_loss(y_true,?y_pred[,?...]) | 零分類損失 |
?
回歸指標(biāo)
有關(guān)詳細(xì)信息,請參閱用戶指南的“回歸指標(biāo)”部分。
| metrics.explained_variance_score(y_true,?y_pred) | 解釋方差回歸分?jǐn)?shù)函數(shù) |
| metrics.mean_absolute_error(y_true,?y_pred) | 平均絕對誤差回歸損失 |
| metrics.mean_squared_error(y_true,?y_pred[,?...]) | 均方誤差回歸損失 |
| metrics.median_absolute_error(y_true,?y_pred) | 中值絕對誤差回歸損失 |
| metrics.r2_score(y_true,?y_pred[,?...]) | R^2(測定系數(shù))回歸分?jǐn)?shù)函數(shù) |
?
多標(biāo)簽排名指標(biāo)
有關(guān)更多詳細(xì)信息,請參閱用戶指南的“?多標(biāo)簽排名指標(biāo)”部分。
| metrics.coverage_error(y_true,?y_score[,?...]) | 覆蓋誤差測量 |
| metrics.label_ranking_average_precision_score(...) | 計算基于排名的平均精度 |
| metrics.label_ranking_loss(y_true,?y_score) | 計算排名損失量 |
?
聚類指標(biāo)
有關(guān)詳細(xì)信息,請參閱用戶指南的群集性能評估部分。
該sklearn.metrics.cluster子模塊包含了聚類分析的結(jié)果評價指標(biāo)。有兩種形式的評估:
- 監(jiān)督,它為每個樣本使用地面真值類別值。
- 無監(jiān)督,不對和衡量模型本身的“質(zhì)量”。
| metrics.adjusted_mutual_info_score(...) | 兩個集群之間調(diào)整的相互信息 |
| metrics.adjusted_rand_score(labels_true,?...) | 蘭德指數(shù)調(diào)整機(jī)會 |
| metrics.calinski_harabaz_score(X,?labels) | 計算Calinski和Harabaz得分 |
| metrics.completeness_score(labels_true,?...) | 給定一個地面真相的集群標(biāo)簽的完整度量 |
| metrics.fowlkes_mallows_score(labels_true,?...) | 測量一組點(diǎn)的兩個聚類的相似度 |
| metrics.homogeneity_completeness_v_measure(...) | 一次計算同質(zhì)性和完整性和V-Measure分?jǐn)?shù) |
| metrics.homogeneity_score(labels_true,?...) | 給出了一個地面事實(shí)的集群標(biāo)簽的均勻性度量 |
| metrics.mutual_info_score(labels_true,?...) | 兩個集群之間的相互信息 |
| metrics.normalized_mutual_info_score(...) | 兩個集群之間的歸一化互信息 |
| metrics.silhouette_score(X,?labels[,?...]) | 計算所有樣本的平均輪廓系數(shù) |
| metrics.silhouette_samples(X,?labels[,?metric]) | 計算每個樣本的剪影系數(shù) |
| metrics.v_measure_score(labels_true,?labels_pred) | V-measure集群標(biāo)簽給出了一個基本的真相 |
?
二聚體指標(biāo)
有關(guān)詳細(xì)信息,請參閱用戶指南的Biclustering評估部分。| metrics.consensus_score(a,?b[,?similarity]) | 兩組雙核的相似性 |
?
成對指標(biāo)
有關(guān)更多詳細(xì)信息,請參閱用戶指南的“?成對度量度,親和力和內(nèi)核”部分。| metrics.pairwise.additive_chi2_kernel(X[,?Y]) | 計算X和Y中觀測值之間的加性卡方核 |
| metrics.pairwise.chi2_kernel(X[,?Y,?gamma]) | 計算指數(shù)卡方核X和Y |
| metrics.pairwise.distance_metrics() | pairwise_distances的有效指標(biāo) |
| metrics.pairwise.euclidean_distances(X[,?Y,?...]) | 考慮X(和Y = X)的行作為向量,計算每對向量之間的距離矩陣 |
| metrics.pairwise.kernel_metrics() | pairwise_kernels的有效指標(biāo) |
| metrics.pairwise.linear_kernel(X[,?Y]) | 計算X和Y之間的線性內(nèi)核 |
| metrics.pairwise.manhattan_distances(X[,?Y,?...]) | 計算X和Y中向量之間的L1距離 |
| metrics.pairwise.pairwise_distances(X[,?Y,?...]) | 從矢量數(shù)組X和可選Y計算距離矩陣 |
| metrics.pairwise.pairwise_kernels(X[,?Y,?...]) | 計算陣列X和可選陣列Y之間的內(nèi)核 |
| metrics.pairwise.polynomial_kernel(X[,?Y,?...]) | 計算X和Y之間的多項式內(nèi)核 |
| metrics.pairwise.rbf_kernel(X[,?Y,?gamma]) | 計算X和Y之間的rbf(高斯)內(nèi)核 |
| metrics.pairwise.sigmoid_kernel(X[,?Y,?...]) | 計算X和Y之間的S形內(nèi)核 |
| metrics.pairwise.cosine_similarity(X[,?Y,?...]) | 計算X和Y中樣本之間的余弦相似度 |
| metrics.pairwise.cosine_distances(X[,?Y]) | 計算X和Y中樣本之間的余弦距離 |
| metrics.pairwise.laplacian_kernel(X[,?Y,?gamma]) | 計算X和Y之間的拉普拉斯核 |
| metrics.pairwise_distances(X[,?Y,?metric,?...]) | 從矢量數(shù)組X和可選Y計算距離矩陣 |
| metrics.pairwise_distances_argmin(X,?Y[,?...]) | 計算一點(diǎn)與一組點(diǎn)之間的最小距離 |
| metrics.pairwise_distances_argmin_min(X,?Y) | 計算一點(diǎn)與一組點(diǎn)之間的最小距離 |
| metrics.pairwise.paired_euclidean_distances(X,?Y) | 計算X與Y之間的配對歐氏距離 |
| metrics.pairwise.paired_manhattan_distances(X,?Y) | 計算X和Y中向量之間的L1距離 |
| metrics.pairwise.paired_cosine_distances(X,?Y) | 計算X和Y之間的配對余弦距離 |
| metrics.pairwise.paired_distances(X,?Y[,?metric]) | 計算X和Y之間的配對距離 |
?
sklearn.mixture: Gaussian Mixture Models(高斯混合模型)
該sklearn.mixture模塊實(shí)現(xiàn)混合建模算法。
用戶指南:有關(guān)詳細(xì)信息,請參閱高斯混合模型部分。
| mixture.GaussianMixture([n_components,?...]) | 高斯混合 |
| mixture.BayesianGaussianMixture([...]) | 高斯混合變分貝葉斯估計 |
?
sklearn.multiclass: Multiclass and multilabel classification(多類和多標(biāo)簽分類)
多類和多標(biāo)簽分類策略
該模塊實(shí)現(xiàn)了多類學(xué)習(xí)算法:
- one-vs-the-rest / one-vs-all
- one-vs-one
- 糾錯輸出代碼
該模塊中提供的估計量是元估計器:它們需要在其構(gòu)造函數(shù)中提供基本估計器。例如,可以使用這些估計器將二進(jìn)制分類器或回歸器轉(zhuǎn)換為多類分類器。也可以將這些估計器與多類估計器一起使用,希望它們的準(zhǔn)確性或運(yùn)行時性能得到改善。
scikit-learn中的所有分類器實(shí)現(xiàn)多類分類;?您只需要使用此模塊即可嘗試使用自定義多類策略。
一對一的元分類器也實(shí)現(xiàn)了一個predict_proba方法,只要這種方法由基類分類器實(shí)現(xiàn)即可。該方法在單個標(biāo)簽和多重標(biāo)簽的情況下返回類成員資格的概率。注意,在多重標(biāo)簽的情況下,概率是給定樣本落在給定類中的邊際概率。因此,在多標(biāo)簽情況下,這些概率在一個給定樣本的所有可能的標(biāo)簽的總和不會和為1,因為他們在單個標(biāo)簽的情況下做的。
用戶指南:有關(guān)詳細(xì)信息,請參閱多類和多標(biāo)簽算法部分。
| multiclass.OneVsRestClassifier(estimator[,?...]) | One-vs-the-rest (OvR)?多類/多標(biāo)簽策略 |
| multiclass.OneVsOneClassifier(estimator[,?...]) | One-vs-one?多類策略 |
| multiclass.OutputCodeClassifier(estimator[,?...]) | (錯誤校正)輸出代碼多類策略 |
?
sklearn.multioutput: Multioutput regression and classification(多輸出回歸和分類)
該模塊實(shí)現(xiàn)多輸出回歸和分類。
該模塊中提供的估計量是元估計器:它們需要在其構(gòu)造函數(shù)中提供基本估計器。元估計器將單輸出估計器擴(kuò)展到多輸出估計器。
用戶指南:有關(guān)詳細(xì)信息,請參閱多類和多標(biāo)簽算法部分。
| multioutput.MultiOutputRegressor(estimator) | 多目標(biāo)回歸 |
| multioutput.MultiOutputClassifier(estimator) | 多目標(biāo)分類 |
?
sklearn.naive_bayes: Naive Bayes(樸素貝葉斯)
該sklearn.naive_bayes模塊實(shí)現(xiàn)樸素貝葉斯算法。這些是基于應(yīng)用貝葉斯定理與強(qiáng)(天真)特征獨(dú)立假設(shè)的監(jiān)督學(xué)習(xí)方法。
用戶指南:有關(guān)詳細(xì)信息,請參閱“?樸素貝葉斯”部分。
| naive_bayes.GaussianNB([priors]) | 高斯樸素貝葉斯(GaussianNB) |
| naive_bayes.MultinomialNB([alpha,?...]) | 樸素貝葉斯分類器多項式模型 |
| naive_bayes.BernoulliNB([alpha,?binarize,?...]) | 樸素貝葉斯分類器多變量伯努利模型 |
?
sklearn.neighbors: Nearest Neighbors(最近鄰)
該sklearn.neighbors模塊實(shí)現(xiàn)了k-最近鄰居算法。
用戶指南:有關(guān)更多詳細(xì)信息,請參閱最近鄰居部分。
| neighbors.NearestNeighbors([n_neighbors,?...]) | 無監(jiān)督學(xué)習(xí)者實(shí)施鄰居搜索 |
| neighbors.KNeighborsClassifier([...]) | 執(zhí)行k-最近鄰居的分類器投票 |
| neighbors.RadiusNeighborsClassifier([...]) | 分類器在給定半徑內(nèi)的鄰居中執(zhí)行投票 |
| neighbors.KNeighborsRegressor([n_neighbors,?...]) | 基于k最近鄰的回歸 |
| neighbors.RadiusNeighborsRegressor([radius,?...]) | 基于固定半徑內(nèi)的鄰居的回歸 |
| neighbors.NearestCentroid([metric,?...]) | 最重心分類器 |
| neighbors.BallTree | BallTree用于快速泛化N點(diǎn)問題 |
| neighbors.KDTree | KDTree用于快速泛化的N點(diǎn)問題 |
| neighbors.LSHForest([n_estimators,?radius,?...]) | 使用LSH森林執(zhí)行近似最近鄰搜索 |
| neighbors.DistanceMetric | DistanceMetric類 |
| neighbors.KernelDensity([bandwidth,?...]) | 核密度估計 |
| neighbors.kneighbors_graph(X,?n_neighbors[,?...]) | 計算X中k個鄰居的(加權(quán))圖 |
| neighbors.radius_neighbors_graph(X,?radius) | 計算X中的點(diǎn)的鄰居的(加權(quán))圖 |
?
sklearn.neural_network: Neural network models(神經(jīng)網(wǎng)絡(luò)模型)
該sklearn.neural_network模塊包括基于神經(jīng)網(wǎng)絡(luò)的模型。
用戶指南:有關(guān)詳細(xì)信息,請參閱神經(jīng)網(wǎng)絡(luò)模型(受監(jiān)督)和神經(jīng)網(wǎng)絡(luò)模型(無監(jiān)督)部分。
| neural_network.BernoulliRBM([n_components,?...]) | 伯努利限制玻爾茲曼機(jī)(RBM) |
| neural_network.MLPClassifier([...]) | 多層感知器分類器 |
| neural_network.MLPRegressor([...]) | 多層感知器回歸 |
?
sklearn.calibration: Probability Calibration(概率校準(zhǔn))
校準(zhǔn)預(yù)測概率。
用戶指南:有關(guān)詳細(xì)信息,請參閱概率校準(zhǔn)部分。
| calibration.CalibratedClassifierCV([...]) | 等滲回歸或乙狀結(jié)構(gòu)的概率校準(zhǔn) |
| calibration.calibration_curve(y_true,?y_prob) | 計算校準(zhǔn)曲線的真實(shí)和預(yù)測概率 |
?
sklearn.cross_decomposition: Cross decomposition(交叉分解)
用戶指南:有關(guān)詳細(xì)信息,請參閱交叉分解部分。
| cross_decomposition.PLSRegression([...]) | PLS回歸 |
| cross_decomposition.PLSCanonical([...]) | PLSCanonical實(shí)現(xiàn)了原始Wold算法的2塊規(guī)范PLS [Tenenhaus 1998] p.204,在[Wegelin 2000]中被稱為PLS-C2A |
| cross_decomposition.CCA([n_components,?...]) | CCA規(guī)范相關(guān)分析 |
| cross_decomposition.PLSSVD([n_components,?...]) | 部分最小二乘SVD |
?
sklearn.pipeline: Pipeline(管道)
該sklearn.pipeline模塊實(shí)現(xiàn)實(shí)用程序來構(gòu)建復(fù)合估計器,作為變換鏈和估計器鏈。
| pipeline.Pipeline(steps) | 最終估計量的變換管道 |
| pipeline.FeatureUnion(transformer_list[,?...]) | 連接多個變壓器對象的結(jié)果 |
| pipeline.make_pipeline(\*steps) | 從給定的估計量構(gòu)建管道 |
| pipeline.make_union(\*transformers) | 從給定的變壓器構(gòu)造一個FeatureUnion |
?
sklearn.preprocessing: Preprocessing and Normalization(預(yù)處理和規(guī)范化)
該sklearn.preprocessing模塊包括縮放,定心,歸一化,二值化和插補(bǔ)方法。
用戶指南:有關(guān)詳細(xì)信息,請參閱預(yù)處理數(shù)據(jù)部分。
| preprocessing.Binarizer([threshold,?copy]) | 根據(jù)閾值對數(shù)據(jù)進(jìn)行二值化(將特征值設(shè)置為0或1) |
| preprocessing.FunctionTransformer([func,?...]) | 從任意可調(diào)用的構(gòu)造一個變壓器 |
| preprocessing.Imputer([missing_values,?...]) | 用于完成缺失值的插補(bǔ)變壓器 |
| preprocessing.KernelCenterer | 中心一個內(nèi)核矩陣 |
| preprocessing.LabelBinarizer([neg_label,?...]) | 以一對一的方式對標(biāo)簽進(jìn)行二值化 |
| preprocessing.LabelEncoder | 在0和n_classes-1之間編碼標(biāo)簽 |
| preprocessing.MultiLabelBinarizer([classes,?...]) | 在迭代迭代和多標(biāo)簽格式之間進(jìn)行轉(zhuǎn)換 |
| preprocessing.MaxAbsScaler([copy]) | 按每個特征的最大絕對值進(jìn)行縮放 |
| preprocessing.MinMaxScaler([feature_range,?copy]) | 通過將每個功能縮放到給定范圍來轉(zhuǎn)換功能 |
| preprocessing.Normalizer([norm,?copy]) | 將樣品歸一化為單位范數(shù) |
| preprocessing.OneHotEncoder([n_values,?...]) | 使用一個單一的一個K方案來編碼分類整數(shù)特征 |
| preprocessing.PolynomialFeatures([degree,?...]) | 生成多項式和交互特征 |
| preprocessing.RobustScaler([with_centering,?...]) | 使用對異常值可靠的統(tǒng)計信息來縮放特征 |
| preprocessing.StandardScaler([copy,?...]) | 通過刪除平均值和縮放到單位方差來標(biāo)準(zhǔn)化特征 |
| preprocessing.add_dummy_feature(X[,?value]) | 增強(qiáng)數(shù)據(jù)集,帶有額外的虛擬功能 |
| preprocessing.binarize(X[,?threshold,?copy]) | 數(shù)組式或scipy.sparse矩陣的布爾閾值 |
| preprocessing.label_binarize(y,?classes[,?...]) | 以?one-vs-all?的方式對標(biāo)簽進(jìn)行二值化 |
| preprocessing.maxabs_scale(X[,?axis,?copy]) | 將每個特征縮放到[-1,1]范圍,而不破壞稀疏度 |
| preprocessing.minmax_scale(X[,?...]) | 通過將每個功能縮放到給定范圍來轉(zhuǎn)換功能 |
| preprocessing.normalize(X[,?norm,?axis,?...]) | 將輸入向量分別縮放到單位范數(shù)(向量長度) |
| preprocessing.robust_scale(X[,?axis,?...]) | 沿著任何軸標(biāo)準(zhǔn)化數(shù)據(jù)集 |
| preprocessing.scale(X[,?axis,?with_mean,?...]) | 沿著任何軸標(biāo)準(zhǔn)化數(shù)據(jù)集 |
?
sklearn.random_projection: Random projection(隨機(jī)投影)
隨機(jī)投影變壓器
隨機(jī)投影是一種簡單且計算有效的方法,通過交易控制的精確度(作為附加方差)來減少數(shù)據(jù)的維度,以實(shí)現(xiàn)更快的處理時間和更小的模型大小。
控制隨機(jī)投影矩陣的維數(shù)和分布,以保留數(shù)據(jù)集的任意兩個樣本之間的成對距離。
隨機(jī)投影效率背后的主要理論結(jié)果是?Johnson-Lindenstrauss lemma(引用維基百科):
在數(shù)學(xué)方面,Johnson-Lindenstrauss引理是從高維度到低維度歐幾里德空間的低失真嵌入點(diǎn)的結(jié)果。引理指出,高維度空間中的一小部分點(diǎn)可以嵌入到較低維度的空間中,使得點(diǎn)之間的距離幾乎保持不變。用于嵌入的地圖至少為Lipschitz,甚至可以被視為正交投影。用戶指南:有關(guān)詳細(xì)信息,請參閱隨機(jī)投影部分。
| random_projection.GaussianRandomProjection([...]) | 通過高斯隨機(jī)投影降低維數(shù) |
| random_projection.SparseRandomProjection([...]) | 通過稀疏隨機(jī)投影降低維數(shù) |
| random_projection.johnson_lindenstrauss_min_dim(...) | 找到一個“安全”數(shù)量的組件隨機(jī)投影到 |
?
sklearn.semi_supervised?Semi-Supervised Learning(半監(jiān)督學(xué)習(xí))
該sklearn.semi_supervised模塊實(shí)現(xiàn)半監(jiān)督學(xué)習(xí)算法。這些算法使用少量的標(biāo)記數(shù)據(jù)和大量未標(biāo)記的分類任務(wù)數(shù)據(jù)。該模塊包括標(biāo)簽傳播。
用戶指南:有關(guān)詳細(xì)信息,請參閱半監(jiān)督部分。
| semi_supervised.LabelPropagation([kernel,?...]) | 標(biāo)簽傳播分類器 |
| semi_supervised.LabelSpreading([kernel,?...]) | 用于半監(jiān)督學(xué)習(xí)的LabelSpread模型 |
?
sklearn.svm: Support Vector Machines(支持向量機(jī))
該sklearn.svm模塊包括支持向量機(jī)算法。
用戶指南:有關(guān)詳細(xì)信息,請參閱支持向量機(jī)部分。
評估者
?
| svm.SVC([C,?kernel,?degree,?gamma,?coef0,?...]) | C支持向量分類 |
| svm.LinearSVC([penalty,?loss,?dual,?tol,?C,?...]) | 線性支持向量分類 |
| svm.NuSVC([nu,?kernel,?degree,?gamma,?...]) | Nu支持向量分類 |
| svm.SVR([kernel,?degree,?gamma,?coef0,?tol,?...]) | Epsilon支持向量回歸 |
| svm.LinearSVR([epsilon,?tol,?C,?loss,?...]) | 線性支持向量回歸 |
| svm.NuSVR([nu,?C,?kernel,?degree,?gamma,?...]) | Nu支持向量回歸 |
| svm.OneClassSVM([kernel,?degree,?gamma,?...]) | 無監(jiān)督異常檢測 |
| svm.l1_min_c(X,?y[,?loss,?fit_intercept,?...]) | 返回C的最低邊界,使得對于C(l1_min_C,無窮大),模型保證不為空 |
?
低級方法
| svm.libsvm.fit | 使用libsvm(低級方法)訓(xùn)練模型 |
| svm.libsvm.decision_function | 預(yù)測余量(這是libsvm的名稱是predict_values) |
| svm.libsvm.predict | 給定模型預(yù)測X的目標(biāo)值(低級方法) |
| svm.libsvm.predict_proba | 預(yù)測概率 |
| svm.libsvm.cross_validation | 交叉驗證程序的綁定(低級程序) |
?
sklearn.tree: Decision Trees(決策樹)
該sklearn.tree模塊包括用于分類和回歸的基于決策樹的模型。
用戶指南:有關(guān)詳細(xì)信息,請參閱決策樹部分。
| tree.DecisionTreeClassifier([criterion,?...]) | 決策樹分類器 |
| tree.DecisionTreeRegressor([criterion,?...]) | 決策樹倒數(shù) |
| tree.ExtraTreeClassifier([criterion,?...]) | 一個非常隨機(jī)的樹分類器 |
| tree.ExtraTreeRegressor([criterion,?...]) | 一個非常隨機(jī)的樹倒數(shù) |
| tree.export_graphviz | 以DOT格式導(dǎo)出決策樹 |
?
sklearn.utils: Utilities(工具)
該sklearn.utils模塊包括各種實(shí)用程序。
開發(fā)人員指南:有關(guān)詳細(xì)信息,請參閱實(shí)用程序開發(fā)人員頁面。
| utils.check_random_state(seed) | 將種子轉(zhuǎn)換成np.random.RandomState實(shí)例 |
| utils.estimator_checks.check_estimator(Estimator) | 檢查估計是否符合scikit學(xué)習(xí)慣例 |
| utils.resample(\*arrays,?\*\*options) | 以一致的方式重新采樣數(shù)組或稀疏矩陣 |
| utils.shuffle(\*arrays,?\*\*options) | 以一致的方式排列數(shù)組或稀疏矩陣 |
?
最近棄用
要在0.19中刪除
| lda.LDA([solver,?shrinkage,?priors,?...]) | 別名?sklearn.discriminant_analysis.LinearDiscriminantAnalysis. |
| qda.QDA([priors,?reg_param,?...]) | 別名?sklearn.discriminant_analysis.QuadraticDiscriminantAnalysis. |
| datasets.load_lfw_pairs(\*args,?\*\*kwargs) | DEPRECATED:函數(shù)'load_lfw_pairs'已經(jīng)在0.17中被棄用,將在0.19中刪除。請改用fetch_lfw_pairs(download_if_missing = False) |
| datasets.load_lfw_people(\*args,?\*\*kwargs) | DEPRECATED:函數(shù)'load_lfw_people'在0.17中已被棄用,將在0.19中刪除。請改用fetch_lfw_people(download_if_missing = False) |
?
在0.20中刪除
| grid_search.ParameterGrid(param_grid) | 每個參數(shù)的網(wǎng)格具有離散數(shù)量的值 |
| grid_search.ParameterSampler(...[,?random_state]) | 發(fā)電機(jī)對從給定分布采樣的參數(shù) |
| grid_search.GridSearchCV(estimator,?param_grid) | 對估計器的指定參數(shù)值進(jìn)行詳盡搜索 |
| grid_search.RandomizedSearchCV(estimator,?...) | 隨機(jī)搜索超參數(shù) |
| cross_validation.LeaveOneOut(n) | 一次性交叉驗證迭代器 |
| cross_validation.LeavePOut(n,?p) | Leave-P-Out交叉驗證迭代器 |
| cross_validation.KFold(n[,?n_folds,?...]) | K-fold交叉驗證迭代器 |
| cross_validation.LabelKFold(labels[,?n_folds]) | 具有非重疊標(biāo)簽的K-fold迭代器變體 |
| cross_validation.LeaveOneLabelOut(labels) | Leave-One-Label_Out交叉驗證迭代器 |
| cross_validation.LeavePLabelOut(labels,?p) | Leave-P-Label_Out交叉驗證迭代器 |
| cross_validation.LabelShuffleSplit(labels[,?...]) | Shuffle-Labels-Out交叉驗證迭代器 |
| cross_validation.StratifiedKFold(y[,?...]) | 分層K-折疊交叉驗證迭代器 |
| cross_validation.ShuffleSplit(n[,?n_iter,?...]) | 隨機(jī)置換交叉驗證迭代器 |
| cross_validation.StratifiedShuffleSplit(y[,?...]) | 分層ShuffleSplit交叉驗證迭代器 |
| cross_validation.PredefinedSplit(test_fold) | 預(yù)定義的分割交叉驗證迭代器 |
| decomposition.RandomizedPCA(\*args,?\*\*kwargs) | 主成分分析(PCA)使用隨機(jī)SVD |
| gaussian_process.GaussianProcess(\*args,?\*\*kwargs) | 遺留高斯過程模型類 |
| mixture.GMM(\*args,?\*\*kwargs) | 傳統(tǒng)高斯混合模型 |
| mixture.DPGMM(\*args,?\*\*kwargs) | Dirichlet過程高斯混合模型 |
| mixture.VBGMM(\*args,?\*\*kwargs) | 高斯混合模型的變分推理 |
| grid_search.fit_grid_point(X,?y,?estimator,?...) | 適合一組參數(shù) |
| learning_curve.learning_curve(estimator,?X,?y) | 學(xué)習(xí)曲線 |
| learning_curve.validation_curve(estimator,?...) | 驗證曲線 |
| cross_validation.cross_val_predict(estimator,?X) | 為每個輸入數(shù)據(jù)點(diǎn)生成交叉驗證的估計 |
| cross_validation.cross_val_score(estimator,?X) | 通過交叉驗證評估分?jǐn)?shù) |
| cross_validation.check_cv(cv[,?X,?y,?classifier]) | 輸入檢查器實(shí)用程序以用戶友好的方式構(gòu)建簡歷 |
| cross_validation.permutation_test_score(...) | 評估具有置換的交叉驗證分?jǐn)?shù)的意義 |
| cross_validation.train_test_split(\*arrays,?...) | 將陣列或矩陣拆分成隨機(jī)列和測試子集 |
總結(jié)
以上是生活随笔為你收集整理的sklearn API 文档的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 机器学习实战(用Scikit-learn
- 下一篇: Attention的梳理、随想与尝试