基于D-S证据理论的数据融合算法的研究
D-S證據(jù)理論
在信息融合技術(shù)領(lǐng)域中,信息融合算法是研巧的核也技術(shù)。目前的主流的信息融合方法大致可W分為兩大類:概率統(tǒng)計(jì)類方法和人工智能方法。
其中概率統(tǒng)計(jì)類方法主要流行的數(shù)學(xué)工具或方法有如下幾種:
一是采用最簡(jiǎn)單直觀的數(shù)學(xué)運(yùn)算融合的加權(quán)平均法。
二是多用于實(shí)時(shí)融合動(dòng)態(tài)低層次冗余數(shù)據(jù)的卡爾曼濾波法。
三是把每個(gè)傳感器進(jìn)行貝葉斯計(jì)算并將各物體的關(guān)聯(lián)概率組成概率分布函數(shù),然后使關(guān)聯(lián)的概率分布函數(shù)的似然函數(shù)最小,進(jìn)而得到最終融合算法的多貝葉斯估計(jì)法。
四是適用于不確定問(wèn)題推理的證據(jù)理論。
而人工智能則主要包括:利用多值邏輯推理,根據(jù)模糊集合理論的何種算法對(duì)各命題進(jìn)行合并計(jì)算,最終實(shí)現(xiàn)數(shù)據(jù)融合的模糊攫輯理論;利用神經(jīng)網(wǎng)絡(luò)的信號(hào)處理能力和自動(dòng)推理能力實(shí)現(xiàn)多傳感器數(shù)據(jù)融合的神經(jīng)網(wǎng)絡(luò)法等。
在涉及到數(shù)據(jù)融合的時(shí)候,我們很多人都可能接觸到一個(gè)名詞D-S證據(jù)理論,那么這到底是什么意思呢?如果下次看到了這個(gè)名詞,不要跳過(guò),仔細(xì)看看其實(shí)很簡(jiǎn)單。
Dempster-Shafer 證據(jù)理論首先由 Dempster 提出,構(gòu)造了不確定性推理的一般框架,
后來(lái) Shafer 對(duì)其進(jìn)行了擴(kuò)展和補(bǔ)充,最終形成了證據(jù)理論的整體框架。D-S 證據(jù)理論在
沒(méi)有先驗(yàn)信息的情況下可以對(duì)不確定性和不精確性進(jìn)行有效處理,因此它廣泛應(yīng)用于各
種數(shù)據(jù)融合領(lǐng)域,作為一種不確定推理方法,證據(jù)理論的主要特點(diǎn)是:D-S證據(jù)理論算式簡(jiǎn)單,且具有較為完善的理論基礎(chǔ),其最大的優(yōu)勢(shì)在于滿足比貝葉斯概率論更弱的條件,能夠合理的區(qū)分"不知道"和"不確定",這就允許人們對(duì)不確定性的問(wèn)題進(jìn)行建模分析并產(chǎn)生推理結(jié)果。
設(shè)Θ表示為對(duì)一個(gè)判決問(wèn)題所有可能取值的集合,而且Θ中的事件元素相互獨(dú)立、
互不相容,稱這個(gè)集合Θ(論文里都長(zhǎng)這樣,但其實(shí)都一樣,是希臘字母theta的大寫形式)為辨識(shí)框架。即:
Θ={ A1,A2,A3,……,An}
其中,我們稱Ai?(其中i=1,2,3……,n)稱為識(shí)別框架 Θ 的一個(gè)事件或元素。
在識(shí)別框架 Θ 中,它的任意子集Ai 都對(duì)應(yīng)著某問(wèn)題答案的命題,可以形容這個(gè)命題為“A 是問(wèn)題的答案”。
由辨識(shí)框架Θ所有事件組成的集合稱為Θ的冪集,用來(lái)表示。
接著我們引入冪集的概念,即識(shí)別框架 Θ 全部子集的集合,記作 。
舉個(gè)簡(jiǎn)單的例子,家里還剩最后一個(gè)蘋果,父母出去了,家中留有張一,張二,張三,王四,等幾個(gè)親生兒子,那么問(wèn)題就來(lái)了,如果蘋果被吃了,究竟是誰(shuí)吃的?那么我們就將{張一},{張二},{張三},{王四},{張一,張二},{張一,張三},{張一,王四},{張一,張二,張三}……{張一,張二,張三,王四}納入我們的辨識(shí)框架內(nèi)??蚣軆?nèi)的子集總有一個(gè)是問(wèn)題的答案。
設(shè)Θ為識(shí)別框架,m是從集合2Θ到[0,1]的映射,A表示識(shí)別框架Θ的任一子集,記做A?Θ
且滿足:
則稱m(A)為事件A的基本信任分配函數(shù)(BPA)或者mass函數(shù)。BPA反映了證據(jù)對(duì)識(shí)別框架中的命題A的支持程度,說(shuō)是函數(shù)其實(shí)是個(gè)數(shù)字值,但是因?yàn)槭前芽赡苄杂成涞絒0,1]范圍內(nèi)的具有函數(shù)的要素。而mΦ=0反映了證據(jù)對(duì)于空集是不產(chǎn)生任何支持度的。
其實(shí)這個(gè)基本信任分配函數(shù)作用如其名,就是將信任數(shù)值化并分配給命題的元素
????????????? 比如有這么一個(gè)證據(jù)E1:隔壁老王去過(guò)張家,認(rèn)為張一吃蘋果可能性為0.5所以m1({張一})=0.5,張二,張三都很老實(shí)可能是一起吃的概率為0.2,m2({張二,張三})=0.2。王四吃的可能性最小為0.1那么m3({王四})=0.1。那么還有0.1的概率也就是m1(Θ)=0.1,這是壓根不知道是哪種情況,也就是我們常說(shuō)的”應(yīng)該”是這幾種情況吧,一個(gè)”應(yīng)該”就說(shuō)明還會(huì)有其他情況。如果沒(méi)有這0.1那么對(duì)于老王來(lái)說(shuō)就是肯定只有這幾種情況。這個(gè)思考過(guò)程就把事件A的分配函數(shù)定好了。
而在識(shí)別框架Θ下的任一子集若有mA>0,則稱A為證據(jù)的焦元(focal element)
焦元中所包含的識(shí)別框架元素的個(gè)數(shù)稱為該焦元的基。當(dāng)子集A只含有一個(gè)元素時(shí),稱
為單元素焦元。若含有1個(gè)元素,則稱為n元素焦元。
就是如果A為{張二,張三},那么A是二元焦元,這個(gè)事A是由張二,張三他倆干的。
?????? 下面講一下信任函數(shù)
設(shè)Θ為識(shí)別框架,Bel是從集合2Θ到[0,1]的映射,也就是要把感覺(jué)的可能性給數(shù)字化。讓我們的感覺(jué)用0-1內(nèi)的數(shù)字來(lái)代替,數(shù)字大我們感覺(jué)發(fā)生的可能性大,數(shù)字小,我們感覺(jué)發(fā)生的可能性就小。A表示識(shí)別框架Θ的任一子集,記作A?Θ,且滿足:
則我們稱Bel(A)為A的信任函數(shù)(Belief)。信度函數(shù)表達(dá)了對(duì)每個(gè)命題的信度分配
這有同學(xué)可能就感到迷糊了,我們還以偷吃蘋果那個(gè)為例,假如此時(shí)鄰居王二說(shuō)了另一種看法E2:m1({張一})=0.2,m2({張二,張三})=0.2,m3({王四})=0.5,m4(Θ)=0.1。
那么Bel{張一}(相信是張一干的事這個(gè)命題的信任程度)便可以計(jì)算出來(lái),如何計(jì)算?那么可不是簡(jiǎn)單的相加,而是要利用D-S證據(jù)理論的組合規(guī)則了
筆者提醒:
則稱 m 為框架Θ上的基本可信度分配。m(A) 被稱為?A 的基本可信數(shù)。
基本可信數(shù)反映了對(duì) A 本身(而不去管它的任何真子集與前因后果)的信度大小。
命題本質(zhì)上就是一組證據(jù)的集合。
命題表達(dá)了我們對(duì)待認(rèn)識(shí)的目標(biāo)對(duì)象(識(shí)別框架)的一種潛在推測(cè),每一個(gè)命題都是識(shí)別框架的一個(gè)子集,對(duì)應(yīng)一個(gè)對(duì)現(xiàn)實(shí)問(wèn)題的抽象表征。
基本可信度分配是概率論中完備性的一個(gè)泛化推廣?;究尚艛?shù)累加和為1,代表著所有命題共同組合在一起,構(gòu)成了完整的識(shí)別框架。
需要注意的是,和隨機(jī)事件一樣,命題本身是一個(gè)集合的概念(離散情況下),所以命題可以有子命題,對(duì)命題的可信度分配,同樣也有子集的概念。
可以看到,信度函數(shù)是一系列可信度分配的累計(jì)合成結(jié)果,這和概率論中隨機(jī)變量是單個(gè)離散隨機(jī)事件(離散概率)的累計(jì)的概念是一致的。
Dempster-Shafer證據(jù)合成規(guī)則是一種處理多個(gè)證據(jù)的聯(lián)合法則,簡(jiǎn)稱D-S證據(jù)合成規(guī)則。在一個(gè)給定的識(shí)別框架下,我們可以基于不同的證據(jù)獲得對(duì)應(yīng)的信任函數(shù)。此時(shí)我們需要一個(gè)方法來(lái)融合這些結(jié)果。假設(shè)這些證據(jù)不是完全相悖,那么就可以利用D-S證據(jù)合成規(guī)則加計(jì)算得到一個(gè)新的信任函數(shù)。這一新的信任函數(shù)稱為原來(lái)多個(gè)信任函數(shù)的正交和
設(shè)Θ為識(shí)別框架,mi是在這一識(shí)別框架下的某一證據(jù)的BPA,Aj表示證據(jù)的焦元,記作Aj?Θ,D-S證據(jù)合成規(guī)則表示為:
其中,K表示證據(jù)間的沖突程度,K值越大,表明證據(jù)間的沖突程度越大。而系數(shù)1/1-K稱為歸一化因子。其實(shí)真的只看公式的話,比較難理解到底怎么合成證據(jù),為了讓大家更好更快的理解這個(gè)公式,下面以兩個(gè)證據(jù)合成情況為例,通過(guò)空間圖示的方式加以介紹。設(shè)Θ為識(shí)別框架,m1和m2分別是這一識(shí)別框架下的兩個(gè)證據(jù)的BPA,用Ai, bj分別表示兩個(gè)證據(jù)的焦元。下面兩張圖中,分別用線段[0,1]中用某一段長(zhǎng)度表示信任分配函數(shù)m1(Ai)和m2Bj的值。而總的線段長(zhǎng)度為1表示所有命題的BPA的和為1。
| Figure 1證據(jù)m2的基本概率分配值圖 |
Figure 2證據(jù)m1的基本概率分配圖
Figure 3? D-S證據(jù)合成公式效果圖
在圖3中將圖2和圖1結(jié)合起來(lái),可以算出證據(jù)合成后的結(jié)果。整個(gè)大的矩形可以看成總的基本任務(wù)分配。其中,豎軸表示m1分配到其對(duì)應(yīng)焦元Ai上的基本信任分配值。而橫軸表示m2分配到對(duì)應(yīng)焦元Bj上的基本信任分配值。圖中陰影部分表示同時(shí)分配到Ai,Bj上的基本信任分配值,用m1(Ai)* m2(Bj)表示。當(dāng)Ai∩Bj=A時(shí),m1和m2的聯(lián)合作用就是將m1(Ai)* m2(Bj)確切分配到A上,同時(shí)為了使Ai∩Bj=?時(shí)分配到空集上的信任分配值為0,需要把
這一部分值丟棄。當(dāng)丟棄這部分值后,總的信任值會(huì)小于1,因此需要在每個(gè)信任分配上乘于系數(shù)11-K,總而使總信任值為1。
對(duì)于多個(gè)證據(jù)也可采用相同的做法,將基本信任分配函數(shù)合成一個(gè)。
還記得偷蘋果的例子嗎,如果現(xiàn)在父母對(duì)于誰(shuí)會(huì)吃蘋果有自己的感覺(jué)判斷,父母認(rèn)為E3:
m1({張一})=0.2,m2({張二,張三})=0.2,m3({王四})=0.3,m4(Θ)=0.3。我們要知道每一個(gè)不確定的可能都包含所有的可能也就是為何我們用m4(Θ)來(lái)表示不確定的概率。
那么我們就可以整理出:
E1:m1({張一})=0.5,m2({張二,張三})=0.2,m3({王四})=0.2,m1(Θ)=0.1。
E2: m1({張一})=0.3,m2({張二,張三})=0.1,m3({王四})=0.5,m4(Θ)=0.1。
E3:m1({張一})=0.2,m2({張二,張三})=0.2,m3({王四})=0.3,m4(Θ)=0.3。
那么下面就是激動(dòng)人心的時(shí)刻了,我們?cè)撛趺此愠鰪堃煌党蕴O果這個(gè)命題的整體可信度呢?
m({張一}) =[ m1({張一})+m1( Θ )] * [m2({張一}) + m2( Θ )]*[ m3({張一}) + m3( Θ )] - [m1( Θ ) * m2(Θ) * m3(Θ)]=0.120,
同理m({張二,張三})=0.050,m({王四})=0.108。而對(duì)于m(Θ)我們就要將其舍去
因此k=0.278。
這些概率和就不是1了所以我們將其歸一化
那么m({張一})=0.179,m({張二,張三})=0.388,m({王四})=0.503。(有一定誤差,可能和不為1,在實(shí)際處理的時(shí)候浮點(diǎn)數(shù)精度會(huì)很高,從而減少此類誤差)
在處理的過(guò)程中,初始D-S理論其實(shí)誤差和悖論有很多,比如(1)全沖突惇論,(2)1信任惇論,(3)0信任惇論,(4)證據(jù)失效惇論,(5)信任偏移惇論,(6)焦元基模糊停論。對(duì)于這方面的改進(jìn)分為三個(gè)方面,一是基于對(duì)證據(jù)源的修正的方法;二是基于對(duì)合成規(guī)則的修正的方法;三是同時(shí)對(duì)證據(jù)源及合成規(guī)則修正的方法。
第一種基于對(duì)證據(jù)源的修正方案普遍認(rèn)為,Dempster-shafer證據(jù)合成規(guī)則本身是沒(méi)有錯(cuò)誤的。造成合成結(jié)果惇論的原因往往是因?yàn)橥ㄟ^(guò)傳感器獲得的證據(jù)受到了外部環(huán)境的干擾或某一傳感器在檢測(cè)過(guò)程中失效?;诖朔治霎?dāng)證據(jù)源存在沖突時(shí),只要對(duì)證據(jù)源進(jìn)行預(yù)處理,淡化干擾因素,得到修正后的證據(jù)源,再使用Dempster-shafer合成規(guī)則完成合成即可
具體細(xì)節(jié)在此就不一一詳述了,有興趣的同學(xué)可以查閱資料。唉,word還不能直接復(fù)制,公式都是自己一點(diǎn)點(diǎn)扣的,排版都亂完了,可惜了。日后我研究到后會(huì)更新優(yōu)化方案,關(guān)注我,我們一起學(xué)習(xí)數(shù)據(jù)融合。
總結(jié)
以上是生活随笔為你收集整理的基于D-S证据理论的数据融合算法的研究的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Linux 部署turnserver
- 下一篇: CSS表单样式