当前位置:首页 > Clementine12理论基础(全)
? 單純貝氏分類器,主要的運作原理,是透過訓練樣本,學習與記憶分類根據所使用屬性的關係,產生這些訓練樣本的中心概念,再用學習後的中心概念對未歸類的資料進行類別預測,以得到受測試資料物件的目標值。 ? 每筆訓練樣本,一般含有分類相關連屬性的值,及分類結果 (又稱為目標值);一般而言,屬性可能出現兩種以上不同的值,而目標值則多半為兩元的相對狀態,如 “是/否”,”好/壞”,”對/錯”,”上/下”。 ?
乘法法則(Multiplicative rule)
P(A∩B) P(B│A)= ─────
P(A)
P(A∩B)= P(B)×P(A│B) = P(A)×P(B│A) P(A∩B) P(A│B)= ───── P(B)
獨立事件
設事件A和事件B滿足以下條件: ? P(A)>0,P(B│A)=P(B) ? P(B)>0,P(A│B)=P(A) ? P(A∩B)=P(A)×P(B) 則稱A與B為『獨立事件』。
貝氏定理
P(Ai∩B) P(Ai)×P(B│Ai) ? P(Ai│B)= ────── = ─────────── P(B) n
ΣP(Ai)×P(B│Ai) i=1 ? P(Ai)表事前機率(Prior probability)。
? P(Ai│B)表事後機率(Posteriori probability),事件Ai是一原因,B是一結果。
? Baye's rule 是一由已知結果求原因的機率。
? 單純貝氏分類器主要是根據貝氏定理,交換事前 及事後 機率,配合決定分類特性的各屬性彼此間是互相獨立的假設,來預測分類的結果。
hMAP: 最大可能的假說 (Maximum A Posteriori) D: 訓練樣本
V: 假說空間 (hypotheses space)
P(D): 訓練樣本的事前機率,對於假說h而言,為一常數 P(h): 假說h事前機率 (尚未觀察訓練樣本時的機率) P(h|D): 在訓練樣本D集合下,假說h出現的條件機率
? 單純貝氏分類器會根據訓練樣本,對於所給予測試物件的屬性值 a1,a2,a3,…,an 指派具有最高機率值的類別 (C表示類別的集合) 為目標結果。
? 其中,假設一共有n個學習概念的屬性A1, A2, …, An,a1為A1相對應的屬性值。
單純貝氏分類器演算法:
1. 計算各屬性的條件機率 P(C=cj | A1=a1,?,An=an)
貝氏定理:
屬性獨立:
2.預測推論新測試樣本所應歸屬的類別
只要單純貝氏分類器所涉及學習概念的屬性,彼此間互相獨立的條件被滿足時,單純貝氏分類器的所得到的最大可能分類結果cNB,與貝氏定理的最大可能假說hMAP具有相同的功效
十六、 SLRM(自我學習反應模型)
它是一種預測功能、整合功能、持續更新與學習功能。每天源源不絕的資料進入企業的資料庫(沒有足夠的時間、精力、和成本在完整資料庫中每天不斷建立新模型)當中,可藉由此模型此資料庫持續增加成長,而可以續更新、或再估計。
共分享92篇相关文档