机器学习之数学基础(一)~maximum likelihood
一、轉載博客
轉載在:https://www.douban.com/note/640290683/
注0:《deep learning》的chapter 5有一部分講maximum likelihood,那里講地更清楚,建議直接去參考那里的內容。
注1:今天走在路上,突然想明白了似然度是怎么回事,它就是用來度量模型和數據之間的相似度,所以叫它似然度。
注2:原文鏈接:https://codesachin.wordpress.com/2016/07/24/the-basics-of-likelihood/
Defining the Likelihood Function
While assumes you know your model and tries to analyze data according to it, F2 keeps the data in perspective while figuring out how well different sets of parameters describe it.
概率,是你已經知道模型,去分析數據。
- 概率對象:真實對模擬
似然度,是你只知道數據,去模擬一個模型,分析模擬模型和數據(真實模型)的相似度。簡單來說,似然度就是相似度,兩個變量之間的相似度。
- 似然度:模擬對真實
There is a very, very important distinction between probability and likelihood functions – the value of the probability function sums (or integrates, for continuous data) to 1 over all possible values of the input data. However, the value of the likelihood function?does not integrate to 1 over all possible combinations of the parameters.
概率的和為1,但是不能說似然度的和為一
The only thing you can be sure of, is this: If F2(θ1)>F2(θ2) , then it is more likely that denote the parameters of the underlying model.
我門只能通過似然度數值來說明模型與數值的擬合程度,似然度高,就說明模型越接近于數據真實的模型;即便似然度值為0.99,這也不能說明該似然模型最好,其他模型的似然度可能為0.999
問題:不能確定最大似然度,即不能確定最好的似然模型
原因:最大似然度值不能確定
解決:maximum likelihood estimate。通過求導,可以獲得似然模型的極值,在求導過程中,用log來簡化計算
?
擴展----在語音識別中,p(o|w)觀察似然度,表示潛在句子與聲學序列的相似度
二、我在學習卷積函數時的一點想法,不知對錯
1. 似然度,likelihood
我認為似然度可以理解為可能性。
對于一些簡單的事件,比如拋硬幣,我們很清楚拋硬幣的概率計算公式/模型。
但是現實生活中存在很多復雜的事件或數據,我們不能直接給出它們的概率計算公式/模型。
我們只知道這類復雜事件模型在輸入某一具體數值(input)時會產生唯一對應的數據結果(output),所以只能從這些數值變化規律中推測出一個盡可能符合這類事件變化規律的近似概率模型。
推測近似概率模型的過程類似于機器學習的訓練過程。先以某些已知的標簽數據去訓練模型,然后用訓練好的模型去推測這類事件未發生事件的發生概率。
這種人工訓練模型(positive)去模擬真正的概率模型(true)的過程叫擬合。
這種近似概率模型與真正的概率模型的相似度叫似然度,likelihood。我們為了使推測的近似概率模型性能達到最優,使近似概率模型與真正模型之間的相似度達到最大,即為最大似然,maximum likelihood。
?
總結
以上是生活随笔為你收集整理的机器学习之数学基础(一)~maximum likelihood的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ubuntu~vim操作
- 下一篇: 机器学习应用方向(二)~概念漂移(con