ML之NB:朴素贝叶斯Naive Bayesian算法的简介、应用、经典案例之详细攻略
ML之NB:樸素貝葉斯Naive Bayesian算法的簡介、應用、經典案例之詳細攻略
?
?
目錄
樸素貝葉斯Naive Bayesian算法的簡介
1、樸素貝葉斯計算流程表述
2、樸素貝葉斯的優缺點
2.1、優點
2.2、缺點
3、分類模型之DT與NB的比較
樸素貝葉斯Naive Bayesian算法的應用
1、文本分類
樸素貝葉斯Naive Bayesian算法的經典案例
?
?
?
樸素貝葉斯Naive Bayesian算法的簡介
? ? ? ? 樸素貝葉斯法是基于貝葉斯定理與特征條件獨立假設的分類方法。樸素貝葉斯分類器基于一個簡單的假定:給定目標值時屬性之間相互條件獨立。
? ? ? ? 通過以上定理和“樸素”的假定,我們知道:
P(Category | Document) = P(Document | Category ) * P(Category) / P(Document)
? ? ? ? 樸素貝葉斯的基本方法:在統計數據的基礎上,依據條件概率公式,計算當前特征的樣本屬于某個分類的概率,選擇最大的概率分類。對于給出的待分類項,求解在此項出現的條件下各個類別出現的概率,哪個最大,就認為此待分類項屬于哪個類別。
?
1、樸素貝葉斯計算流程表述
- (1)x = {a1, a2,..., am}為待分類項,每個ai為x的一個特征屬性
- (2)有類別集合C = {y1, y2, ..., yn}
- (3)計算P(y1|x), P(y2|x), ..., P(yn|x)
- (4)如果P(yk|x) = max{P(y1|x)
?
2、樸素貝葉斯的優缺點
2.1、優點
? ? ? ? 樸素貝葉斯算法假設了數據集屬性之間是相互獨立的,因此算法的邏輯性十分簡單,并且算法較為穩定,當數據呈現不同的特點時,樸素貝葉斯的分類性能不會有太大的差異。換句話說就是樸素貝葉斯算法的健壯性比較好,對于不同類型的數據集不會呈現出太大的差異性。當數據集屬性之間的關系相對比較獨立時,樸素貝葉斯分類算法會有較好的效果。
2.2、缺點
? ? ? ? 屬性獨立性的條件同時也是樸素貝葉斯分類器的不足之處。數據集屬性的獨立性在很多情況下是很難滿足的,因為數據集的屬性之間往往都存在著相互關聯,如果在分類過程中出現這種問題,會導致分類的效果大大降低。
?
3、分類模型之DT與NB的比較
? ? ? ? 最為廣泛的兩種分類模型是決策樹模型(Decision Tree Model)和樸素貝葉斯模型(Naive Bayesian Model,NBM)。和決策樹模型相比,樸素貝葉斯分類器(Naive Bayes Classifier 或 NBC)發源于古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。同時,NBC模型所需估計的參數很少,對缺失數據不太敏感,算法也比較簡單。理論上,NBC模型與其他分類方法相比具有最小的誤差率。但是實際上并非總是如此,這是因為NBC模型假設屬性之間相互獨立,這個假設在實際應用中往往是不成立的,這給NBC模型的正確分類帶來了一定影響。
?
?
樸素貝葉斯Naive Bayesian算法的應用
1、文本分類
? ? ? ? 直觀的文本分類算法,也是最簡單的貝葉斯分類器,具有很好的可解釋性,樸素貝葉斯算法特點是假設所有特征的出現相互獨立互不影響,每一特征同等重要。但事實上這個假設在現實世界中并不成立:首先,相鄰的兩個詞之間的必然聯系,不能獨立;其次,對一篇文章來說,其中的某一些代表詞就確定它的主題,不需要通讀整篇文章、查看所有詞。所以需要采用合適的方法進行特征選擇,這樣樸素貝葉斯分類器才能達到更高的分類效率。
?
?
樸素貝葉斯Naive Bayesian算法的經典案例
1、基礎案例
ML之NB:(NLP)基于sklearn庫利用不同語種數據集訓練NB(樸素貝葉斯)算法,對新語種進行語種檢測
ML之NB&LoR:利用NB(樸素貝葉斯)、LoR(邏輯斯蒂回歸)算法(+CountVectorizer)對Rotten Tomatoes影評數據集進行文本情感分析—五分類預測
ML之NB&LoR:利用NB(樸素貝葉斯)、LoR(邏輯斯蒂回歸)算法(+TfidfVectorizer)對Rotten Tomatoes影評數據集進行文本情感分析—五分類預測
ML之NB:基于NB樸素貝葉斯算法訓練20類新聞文本數據集進行多分類預測
?
?
?
?
?
?
?
?
?
?
?
?
總結
以上是生活随笔為你收集整理的ML之NB:朴素贝叶斯Naive Bayesian算法的简介、应用、经典案例之详细攻略的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ML之SVM:基于SVM(sklearn
- 下一篇: NLP之TopicModel:朴素贝叶斯