人工智能:第四章 计算智能(1)
第四章 計(jì)算智能(1)
教學(xué)內(nèi)容:本章討論計(jì)算智能所涉及的領(lǐng)域和范圍,計(jì)算智能的含義及它與傳統(tǒng)的人工智能的區(qū)別。介紹人工神經(jīng)網(wǎng)絡(luò)的由來、特性、結(jié)構(gòu)、模型和算法;神經(jīng)網(wǎng)絡(luò)的表示和推理。簡要地介紹模糊數(shù)學(xué)的基本概念、運(yùn)算法則、模糊邏輯推理和模糊判決等。
教學(xué)重點(diǎn):計(jì)算智能;人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、模型和算法,以及表示和推理。
教學(xué)難點(diǎn):人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、算法和推理;模糊數(shù)學(xué)的運(yùn)算法則和模糊邏輯推理。
教學(xué)方法:課堂教學(xué)為主。適當(dāng)提問,加深學(xué)生對(duì)概念的理解。
教學(xué)要求:通過對(duì)本章的學(xué)習(xí),使學(xué)生掌握人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、模型和算法,了解計(jì)算智能所涉及的領(lǐng)域和范圍,了解人工神經(jīng)網(wǎng)絡(luò)的特性、表示和推理,了解模糊數(shù)學(xué)的基本概念、運(yùn)算法則、模糊邏輯推理和模糊判決等。
4.1概述
教學(xué)內(nèi)容:本節(jié)介紹計(jì)算智能所涉及的領(lǐng)域和范圍,計(jì)算智能的含義及其與傳統(tǒng)人工智能的區(qū)別。貝茲德克提出的“ABC”,及它與神經(jīng)網(wǎng)絡(luò)(NN)、模式識(shí)別(PR)和智能(I)之間的關(guān)系。
教學(xué)重點(diǎn):計(jì)算智能的含義及其與傳統(tǒng)的人工智能的區(qū)別。
教學(xué)難點(diǎn):“ABC”及其與神經(jīng)網(wǎng)絡(luò)(NN)、模式識(shí)別(PR)和智能(I)之間的關(guān)系。
教學(xué)方法:課堂教學(xué)。
教學(xué)要求:掌握計(jì)算智能的含義,了解計(jì)算智能與傳統(tǒng)的人工智能有何區(qū)別。了解貝茲德克提出的“ABC”及其與神經(jīng)網(wǎng)絡(luò)(NN)、模式識(shí)別(PR)和智能(I)之間的關(guān)系。
信息科學(xué)與生命科學(xué)的相互交叉、相互滲透和相互促進(jìn)是現(xiàn)代科學(xué)技術(shù)發(fā)展的一個(gè)顯著特點(diǎn)。
計(jì)算智能涉及神經(jīng)網(wǎng)絡(luò)、模糊邏輯、進(jìn)化計(jì)算和人工生命等領(lǐng)域,它的研究和發(fā)展正是反映了當(dāng)代科學(xué)技術(shù)多學(xué)科交叉與集成的重要發(fā)展趨勢(shì)。
把神經(jīng)網(wǎng)絡(luò)(NN)歸類于人工智能(AI)可能不大合適,而歸類于計(jì)算智能(CI)更能說明問題實(shí)質(zhì)。進(jìn)化計(jì)算、人工生命和模糊邏輯系統(tǒng)的某些課題,也都?xì)w類于計(jì)算智能。
計(jì)算智能取決于制造者(manufacturers)提供的數(shù)值數(shù)據(jù),不依賴于知識(shí);另一方面,人工智能應(yīng)用知識(shí)精品(knowledge tidbits)。人工神經(jīng)網(wǎng)絡(luò)應(yīng)當(dāng)稱為計(jì)算神經(jīng)網(wǎng)絡(luò)。
第一個(gè)對(duì)計(jì)算智能的定義是由貝茲德克(Bezdek)于1992年提出的。
盡管計(jì)算智能與人工智能的界限并非十分明顯,然而討論它們的區(qū)別和關(guān)系是有益的。馬克斯(Marks)在1993年提到計(jì)算智能與人工智能的區(qū)別,而貝茲德克則關(guān)心模式識(shí)別(PR與生物神經(jīng)網(wǎng)絡(luò)(BNN)、人工神經(jīng)網(wǎng)絡(luò)(ANN)和計(jì)算神經(jīng)網(wǎng)絡(luò)(CNN)的關(guān)系,以及模式識(shí)別與其它智能的關(guān)系。忽視ANN與CNN的差別可能導(dǎo)致對(duì)模式識(shí)別中神經(jīng)網(wǎng)絡(luò)模型的混淆、誤解、誤表示和誤用。
提問:計(jì)算智能與人工智能的區(qū)別和關(guān)系如何。
貝茲德克對(duì)這些相關(guān)術(shù)語給予一定的符號(hào)和簡要說明或定義。
他給出有趣的ABC:
A-Artificial, 表示人工的(非生物的),即人造的
B-Biological, 表示物理的+化學(xué)的+(??)=生物的
C-Computational, 表示數(shù)學(xué)+計(jì)算機(jī)
圖4.1表示ABC及其與神經(jīng)網(wǎng)絡(luò)(NN)、模式識(shí)別(PR)和智能(I)之間的關(guān)系。
圖4.1 ABC的交通關(guān)系圖
計(jì)算智能是一種智力方式的低層認(rèn)知,它與人工智能的區(qū)別只是認(rèn)知層次從中層下降至低層而已。中層系統(tǒng)含有知識(shí)(精品),低層系統(tǒng)則沒有。
當(dāng)一個(gè)系統(tǒng)只涉及數(shù)值(低層)數(shù)據(jù),含有模式識(shí)別部分,不應(yīng)用人工智能意義上的知識(shí),而且能夠呈現(xiàn)出:
(1)計(jì)算適應(yīng)性;
(2)計(jì)算容錯(cuò)性;
(3)接近人的速度;
(4)誤差率與人相近,
則該系統(tǒng)就是計(jì)算智能系統(tǒng)。
當(dāng)一個(gè)智能計(jì)算系統(tǒng)以非數(shù)值方式加上知識(shí)(精品)值,即成為人工智能系統(tǒng)。
提問:計(jì)算智能的主要特征是什么?
4.2神經(jīng)計(jì)算
教學(xué)內(nèi)容:本節(jié)將介紹人工神經(jīng)網(wǎng)絡(luò)的由來、特性、結(jié)構(gòu)、模型和算法;然后討論神經(jīng)網(wǎng)絡(luò)的表示和推理。這些內(nèi)容是神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)。神經(jīng)計(jì)算是以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的計(jì)算。
教學(xué)重點(diǎn):人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、模型和算法;神經(jīng)網(wǎng)絡(luò)的表示和推理。
教學(xué)難點(diǎn):人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和算法及其表示和推理。
教學(xué)方法:課堂教學(xué)為主,并適當(dāng)提問、收集學(xué)生學(xué)習(xí)情況。
教學(xué)要求:掌握人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、模型和算法,了解人工神經(jīng)網(wǎng)絡(luò)的由來和特性,一般了解神經(jīng)網(wǎng)絡(luò)的表示和推理方法。
4.2.1 人工神經(jīng)網(wǎng)絡(luò)研究的進(jìn)展
1960年威德羅和霍夫率先把神經(jīng)網(wǎng)絡(luò)用于自動(dòng)控制研究。
60年代末期至80年代中期,神經(jīng)網(wǎng)絡(luò)控制與整個(gè)神經(jīng)網(wǎng)絡(luò)研究一樣,處于低潮。
80年代后期以來,隨著人工神經(jīng)網(wǎng)絡(luò)研究的復(fù)蘇和發(fā)展,對(duì)神經(jīng)網(wǎng)絡(luò)控制的研究也十分活躍。這方面的研究進(jìn)展主要在神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制和模糊神經(jīng)網(wǎng)絡(luò)控制及其在機(jī)器人控制中的應(yīng)用上。
人工神經(jīng)網(wǎng)絡(luò)的特性:
(1)并行分布處理 神經(jīng)網(wǎng)絡(luò)具有高度的并行結(jié)構(gòu)和并行實(shí)現(xiàn)能力,因而能夠有較好的耐故障能力和較快的總體處理能力。
(2)非線性映射 神經(jīng)網(wǎng)絡(luò)具有固有的非線性特性,這源于其近似任意非線性映射(變換)能力。
(3)通過訓(xùn)練進(jìn)行學(xué)習(xí) 神經(jīng)網(wǎng)絡(luò)是通過所研究系統(tǒng)過去的數(shù)據(jù)記錄進(jìn)行訓(xùn)練的。一個(gè)經(jīng)過適當(dāng)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)具有歸納全部數(shù)據(jù)的能力。
(4)適應(yīng)與集成 神經(jīng)網(wǎng)絡(luò)能夠適應(yīng)在線運(yùn)行,并能同時(shí)進(jìn)行定量和定性操作。神經(jīng)網(wǎng)絡(luò)的強(qiáng)適應(yīng)和信息熔合能力使得網(wǎng)絡(luò)過程可以同時(shí)輸入大量不同的控制信號(hào),解決輸入信息間的互補(bǔ)和冗余問題,并實(shí)現(xiàn)信息集成和熔合處理。
(5)硬件實(shí)現(xiàn) 神經(jīng)網(wǎng)絡(luò)不僅能夠通過軟件而且可借助軟件實(shí)現(xiàn)并行處理。近年來,一些超大規(guī)模集成電路實(shí)現(xiàn)硬件已經(jīng)問世,而且可從市場(chǎng)上購到。
4.2.2 人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是由基本處理單元及其互連方法決定的。
圖4.2所示神經(jīng)元單元由多個(gè)輸入,i=1,2,...,n和一個(gè)輸出y組成。中間狀態(tài)由輸入信號(hào)的權(quán)和表示,而輸出為:
圖4.2 神經(jīng)元模型
式中,為神經(jīng)元單元的偏置(閾值),為連接權(quán)系數(shù)(對(duì)于激發(fā)狀態(tài),取正值,對(duì)于抑制狀態(tài),取負(fù)值),n為輸入信號(hào)數(shù)目, 為神經(jīng)元輸出,t為時(shí)間,f(_)為輸出變換函數(shù),有時(shí)叫做激勵(lì)函數(shù),往往采用0和1二值函數(shù)或S形函數(shù),見圖4.3,這三種函數(shù)都是連續(xù)和非線性的。一種二值函數(shù)可由下式表示:
如圖4.3(a)所示。一種常規(guī)的S形函數(shù)見圖4.3(b),可由下式表示:
常用雙曲正切函數(shù)(見圖4.3(c))來取代常規(guī)S形函數(shù),因?yàn)?#xff33;形函數(shù)的輸出均為正值,而雙曲正切函數(shù)的輸出值可為正或負(fù)。雙曲正切函數(shù)如下式所示:
圖4.3 神經(jīng)元中的某些變換(激勵(lì))函數(shù)
提問:神經(jīng)網(wǎng)絡(luò)有哪幾種激勵(lì)函數(shù)?
1、人工神經(jīng)網(wǎng)絡(luò)的基本特性和結(jié)構(gòu)
人工神經(jīng)網(wǎng)絡(luò)由神經(jīng)元模型構(gòu)成;這種由許多神經(jīng)元組成的信息處理網(wǎng)絡(luò)具有并行分布結(jié)構(gòu)。每個(gè)神經(jīng)元具有單一輸出,并且能夠與其它神經(jīng)元連接;存在許多(多重)輸出連接方法,每種連接方法對(duì)應(yīng)一個(gè)連接權(quán)系數(shù)。嚴(yán)格地說,人工神經(jīng)網(wǎng)絡(luò)是一種具有下列特性的有向圖:
(1)對(duì)于每個(gè)節(jié)點(diǎn)i存在一個(gè)狀態(tài)變量;
(2)從節(jié)點(diǎn)j至節(jié)點(diǎn)i,存在一個(gè)連接權(quán)系統(tǒng)數(shù);
(3)對(duì)于每個(gè)節(jié)點(diǎn)i,存在一個(gè)閾值;
(4)對(duì)于每個(gè)節(jié)點(diǎn)i,定義一個(gè)變換函數(shù);對(duì)于最一般的情況,此函數(shù)取形式。
人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)基本上分為兩類:遞歸(反饋)網(wǎng)絡(luò)和前饋網(wǎng)絡(luò)。
(1)遞歸網(wǎng)絡(luò)
在遞歸網(wǎng)絡(luò)中,多個(gè)神經(jīng)元互連以組織一個(gè)互連神經(jīng)網(wǎng)絡(luò),如圖4.4所示。有些神經(jīng)元的輸出被反饋至同層或前層神經(jīng)元。因此,信號(hào)能夠從正向和反向流通。Hopfield網(wǎng)絡(luò),Elmman網(wǎng)絡(luò)和Jordan網(wǎng)絡(luò)是遞歸網(wǎng)絡(luò)有代表性的例子。遞歸網(wǎng)絡(luò)又叫做反饋網(wǎng)絡(luò)。
圖4.4 遞歸(反饋)網(wǎng)絡(luò) 圖4.5 前饋(多層)網(wǎng)絡(luò)
圖4.4中,表示節(jié)點(diǎn)的狀態(tài),為節(jié)點(diǎn)的輸入(初始)值,為收斂后的輸出值,i=1,2,...,n。
(2)前饋網(wǎng)絡(luò)
前饋網(wǎng)絡(luò)具有遞階分層結(jié)構(gòu),由一些同層神經(jīng)元間不存在互連的層級(jí)組成。從輸入層至輸出層的信號(hào)通過單向連接流通;神經(jīng)元從一層連接至下一層,不存在同層神經(jīng)元間的連接,如圖4.5所示。圖中,實(shí)線指明實(shí)際信號(hào)流通而虛線表示反向傳播。前饋網(wǎng)絡(luò)的例子有多層感知器(MLP)、學(xué)習(xí)矢量量化(LVQ)網(wǎng)絡(luò)、小腦模型聯(lián)接控制(CMAC)網(wǎng)絡(luò)和數(shù)據(jù)處理方法(GMDH)網(wǎng)絡(luò)等。
2、人工神經(jīng)網(wǎng)絡(luò)的主要學(xué)習(xí)算法
神經(jīng)網(wǎng)絡(luò)主要通過指導(dǎo)式(有師)學(xué)習(xí)算法和非指導(dǎo)式(無師)學(xué)習(xí)算法。此外,還存在第三種學(xué)習(xí)算法,即強(qiáng)化學(xué)習(xí)算法;可把它看做有師學(xué)習(xí)的一種特例。
(1)有師學(xué)習(xí)
有師學(xué)習(xí)算法能夠根據(jù)期望的和實(shí)際的網(wǎng)絡(luò)輸出(對(duì)應(yīng)于給定輸入)間的差來調(diào)整神經(jīng)元間連接的強(qiáng)度或權(quán)。因此,有師學(xué)習(xí)需要有個(gè)老師或?qū)焷硖峁┢谕蚰繕?biāo)輸出信號(hào)。有師學(xué)習(xí)算法的例子包括Delta規(guī)則、廣義Delta規(guī)則或反向傳播算法以及LVQ算法等。
(2)無師學(xué)習(xí)
無師學(xué)習(xí)算法不需要知道期望輸出。在訓(xùn)練過程中,只要向神經(jīng)網(wǎng)絡(luò)提供輸入模式,神經(jīng)網(wǎng)絡(luò)就能夠自動(dòng)地適應(yīng)連接權(quán),以便按相似特征把輸入模式分組聚集。無師學(xué)習(xí)算法的例子包括Kohonen算法和Carpenter-Grossberg自適應(yīng)諧振理論(ART)等。
(3)強(qiáng)化學(xué)習(xí)
如前所述,強(qiáng)化(增強(qiáng))學(xué)習(xí)是有師學(xué)習(xí)的特例。它不需要老師給出目標(biāo)輸出。強(qiáng)化學(xué)習(xí)算法采用一個(gè)“評(píng)論員”來評(píng)價(jià)與給定輸入相對(duì)應(yīng)的神經(jīng)網(wǎng)絡(luò)輸出的優(yōu)度(質(zhì)量因數(shù))。強(qiáng)化學(xué)習(xí)算法的一個(gè)例子是遺傳算法(GA)。
提問:神經(jīng)網(wǎng)絡(luò)主要有哪二類學(xué)習(xí)算法?
4.2.3 人工神經(jīng)網(wǎng)絡(luò)的典型模型
根據(jù)伊林沃思(W.T.Illingworth)提供的綜合資料,最典型的ANN模型(算法)及其學(xué)習(xí)規(guī)則和應(yīng)用領(lǐng)域如表4.2所列(見表4.2)。
4.2.4 基于神經(jīng)網(wǎng)絡(luò)的知識(shí)表示與推理
1、基于神經(jīng)網(wǎng)絡(luò)的知識(shí)表示
基于神經(jīng)網(wǎng)絡(luò)系統(tǒng)中知識(shí)的表示方法與傳統(tǒng)人工智能系統(tǒng)中所用的方法(如產(chǎn)生式、框架、語義網(wǎng)絡(luò)等)完全不同,傳統(tǒng)人工智能系統(tǒng)中所用的方法是知識(shí)的顯式表示,而神經(jīng)網(wǎng)絡(luò)中的知識(shí)表示是一種隱式的表示方法。在這里,知識(shí)并不像在產(chǎn)生式系統(tǒng)中那樣獨(dú)立地表示為每一條規(guī)則,而是將某一問題的若干知識(shí)在同一網(wǎng)絡(luò)中表示。
例:對(duì)圖4.6所示的異或邏輯的神經(jīng)網(wǎng)絡(luò)來說,其鄰接矩陣為:
圖4.6 異或邏輯的神經(jīng)網(wǎng)絡(luò)表示
如果用產(chǎn)生式規(guī)則描述,則該網(wǎng)絡(luò)代表下述四條規(guī)則:
IF x1=0 AND x2=0 THEN y=0
IF x1=0 AND x2=1 THEN y=1
IF x1=1 AND x2=0 THEN y=1
IF x1=1 AND x2=1 THEN y=0
提問:神經(jīng)網(wǎng)絡(luò)中的知識(shí)表示采用了什么樣的表示方法? 結(jié)合這個(gè)例子回答。
2、基于神經(jīng)網(wǎng)絡(luò)的推理
基于神經(jīng)網(wǎng)絡(luò)的推理是通過網(wǎng)絡(luò)計(jì)算實(shí)現(xiàn)的。把用戶提供的初始證據(jù)用作網(wǎng)絡(luò)的輸入,通過網(wǎng)絡(luò)計(jì)算最終得到輸出結(jié)果。
一般來說網(wǎng)絡(luò)推理有正向網(wǎng)絡(luò)推理,其步驟如下:
(1)把已知數(shù)據(jù)輸入網(wǎng)絡(luò)輸入層的各個(gè)節(jié)點(diǎn)。
(2)利用特性函數(shù)分別計(jì)算網(wǎng)絡(luò)中各層的輸出。計(jì)算中,前一層的輸出作為后一層有關(guān)節(jié)點(diǎn)的輸入,逐層進(jìn)行計(jì)算,直至計(jì)算出輸出層的輸出值。
(3)用閾值函數(shù)對(duì)輸出層的輸出進(jìn)行判定,從而得到輸出結(jié)果。
?
4.3 模糊計(jì)算
教學(xué)內(nèi)容:本節(jié)簡要地介紹模糊數(shù)學(xué)的基本概念、運(yùn)算法則、模糊邏輯推理和模糊判決等。這些內(nèi)容構(gòu)成模糊邏輯的基礎(chǔ)知識(shí)。模糊計(jì)算就是以模糊邏輯為基礎(chǔ)的計(jì)算。
教學(xué)重點(diǎn):模糊數(shù)學(xué)的模糊邏輯推理和模糊判決。
教學(xué)難點(diǎn):模糊數(shù)學(xué)的運(yùn)算法則和模糊邏輯推理。
教學(xué)方法:課堂教學(xué)為主,注意結(jié)合例子進(jìn)行講解。
教學(xué)要求:掌握模糊數(shù)學(xué)的基本概念、運(yùn)算法則、模糊邏輯推理方法。
4.3.1 模糊集合、模糊邏輯及其運(yùn)算
首先,讓我們介紹模糊集合與模糊邏輯的若干定義。
設(shè)U為某些對(duì)象的集合,稱為論域,可以是連續(xù)的或離散的;u表示U的元素,記作U={u}。
定義4.1 模糊集合(fuzzy sets) 論域U到[0,1]區(qū)間的任一映射,即,都確定U的一個(gè)模糊子集F;稱為F的隸屬函數(shù)(membership function)或隸屬度(grade of membership)。在論域U中,可把模糊子集表示為元素u與其隸屬函數(shù)的序偶集合,記為:
(4.7)
定義4.2 模糊支集、交叉點(diǎn)及模糊單點(diǎn) 如果模糊集是論域U中所有滿足的元素u構(gòu)成的集合,則稱該集合為模糊集F的支集。當(dāng)u滿足,則稱此模糊集為模糊單點(diǎn)。
定義4.3 模糊集的運(yùn)算 設(shè)A和B為論域U中的兩個(gè)模糊集,其隸屬函數(shù)分別為和,則對(duì)于所有,存在下列運(yùn)算:
(1) A與B的并(邏輯或)記為,其隸屬函數(shù)定義為:
(2)A與B的交(邏輯與)記為,其隸屬函數(shù)定義為:
(3)A的補(bǔ)(邏輯非)記為,其傳遞函數(shù)定義為:
定義4.4直積(笛卡兒乘積,代數(shù)積)若分別為論域中的模糊集合,則這些集合的直積是乘積空間中一個(gè)模糊集合,其隸屬函數(shù)為:
?
定義4.5 模糊關(guān)系 若U,V是兩個(gè)非空模糊集合,則其直積U×V中的一個(gè)模糊子集R稱為從U到V的模糊關(guān)系,可表示為:
定義4.6 復(fù)合關(guān)系 若R和S分別為U×V和V×W中的模糊關(guān)系,則R和S的復(fù)合是一個(gè)從U到W的模糊關(guān)系,記為:
其隸屬函數(shù)為:
式(4.15)中的 * 號(hào)可為三角范式內(nèi)的任意一種算子,包括模糊交、代數(shù)積、有界積和直積等。
定義4.7 正態(tài)模糊集、凸模糊集和模糊數(shù)
以實(shí)數(shù)R為論域的模糊集F,若其隸屬函數(shù)滿足
則F為正態(tài)模糊集;若對(duì)于任意實(shí)數(shù)x,a<x<b,有
則F為凸模糊集;若F既是正態(tài)的又是凸的,則稱F為一模糊數(shù)。
定義4.8 語言變量 一個(gè)語言變量可定義為多元組。其中,x為變量名;為x的詞集,即語言值名稱的集合;U為論域;G是產(chǎn)生語言值名稱的語法規(guī)則;M是與各語言值含義有關(guān)的語法規(guī)則。
討論:隸屬函數(shù)也是函數(shù),它與通常的實(shí)函數(shù)有什么區(qū)別?
4.3.2 模糊邏輯推理
模糊邏輯推理是建立在模糊邏輯基礎(chǔ)上的,它是一種不確定性推理方法,已經(jīng)提出了Zadeh法,Baldwin法、Tsukamoto法、Yager法和Mizumoto法等方法,在此僅介紹Zadeh的推理方法。
在模糊邏輯和近似推理中,有兩種重要的模糊推理規(guī)則,即廣義取式(肯定前提)假言推理法(GMP, Generalized Modus Ponens)和廣義拒式(否定結(jié)論)假言推理法(GMT, Generalized Modus Tollens),分別簡稱為廣義前向推理法和廣義后向推理法。
GMP推理規(guī)則可表示為:
前提1:x為A’
前提2:若x為A,則y為B
結(jié) 論:y為B’
GMT推理規(guī)則可表示為:
前提1:y為B
前提2:若x為A,則y為B
結(jié) 論:x為A’
上述兩式中的A、A’、B和B’為模糊集合,x和y為語言變量。
4.3.3 模糊判決方法
在推理得到的模糊集合中取一個(gè)相對(duì)最能代表這個(gè)模糊集合的單值的過程就稱作解模糊或模糊判決(Defuzzification)。模糊判決可以采用不同的方法:重心法、最大隸屬度方法、加權(quán)平均法、隸屬度限幅元素平均法。
下面介紹各種模糊判決方法,并以“水溫適中”為例,說明不同方法的計(jì)算過程。
1、重心法
所謂重心法就是取模糊隸屬函數(shù)曲線與橫坐標(biāo)軸圍成面積的重心作為代表點(diǎn)。理論上應(yīng)該計(jì)算輸出范圍內(nèi)一系列連續(xù)點(diǎn)的重心,即
但實(shí)際上是計(jì)算輸出范圍內(nèi)整個(gè)采樣點(diǎn)(即若干離散值)的重心。這樣,在不花太多時(shí)間的情況下,用足夠小的取樣間隔來提供所需要的精度,這是一種最好的折衷方案。
(舉例說明)
2、最大隸屬度法
這種方法最簡單,只要在推理結(jié)論的模糊集合中取隸屬度最大的那個(gè)元素作為輸出量即可。不過,要求這種情況下其隸屬函數(shù)曲線一定是正規(guī)凸模糊集合(即其曲線只能是單峰曲線)。如果該曲線是梯形平頂?shù)?#xff0c;那么具有最大隸屬度的元素就可能不止一個(gè),這時(shí)就要對(duì)所有取最大隸屬度的元素求其平均值。
舉例:對(duì)于“水溫適中”,按最大隸屬度原則,有兩個(gè)元素40和50具有最大隸屬度1.0,那就要對(duì)所有取最大隸屬度的元素40和50求平均值,執(zhí)行量應(yīng)取:
3、系數(shù)加權(quán)平均法
系數(shù)加權(quán)平均法的輸出執(zhí)行量由下式?jīng)Q定:
式中,系數(shù)的選擇要根據(jù)實(shí)際情況而定,不同的系統(tǒng)就決定系統(tǒng)有不同的響應(yīng)特性。當(dāng)該系數(shù)選擇時(shí),即取其隸屬函數(shù)時(shí),這就是重心法。在模糊邏輯控制中,可以通過選擇和調(diào)整該系數(shù)來改善系統(tǒng)的響應(yīng)特性。
提問:系數(shù)加權(quán)平均法優(yōu)點(diǎn)是什么?
4、隸屬度限幅元素平均法
用所確定的隸屬度值α對(duì)隸屬度函數(shù)曲線進(jìn)行切割,再對(duì)切割后等于該隸屬度的所有元素進(jìn)行平均,用這個(gè)平均值作為輸出執(zhí)行量,這種方法就稱為隸屬度限幅元素平均法。
?
4.4 小 結(jié)
from: http://netclass.csu.edu.cn/jpkc2003/rengongzhineng/rengongzhineng/jiaoan/chapter4.htm
總結(jié)
以上是生活随笔為你收集整理的人工智能:第四章 计算智能(1)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 人工智能:第二章 知识表示方法
- 下一篇: 人工智能:第五章 计算智能(2)