如前所述 Learning Classifier System 這類的學習系統的一大好處是它的 Rule (又稱為 Classifier) 容易讓人看得懂。
Rule 的結構與一般生活中我們用的"如果 (條件) 就 (行動)" 的描述很像。
例如,明天晴天我們就去打球,如果明天下雨我們就去看電影。
在這裡我們先假設:
條件的第一位是代表今天或明天,而且今天用 0 ;明天用 1 來表示。
條件的第二位是代表情天或雨天,而且情天用 0 ;雨天用 1 來表示。
行動是代表打球或看電影,而且打球用 0 ;看電影用 1 來表示。
所以用 Learning Classifier System 的 Rule 來表示就變成:
(格式 : 條件一 條件二 ..... 條件N => 行動 ; 條件可以很多,不過本例中條件只有兩個。)
1 0 => 0 (如果明天晴天我們就去打球)
1 1 => 1 (如果明天下雨我們就去看電影)
應該很容易看得懂吧?!
2011年11月26日 星期六
2009年10月11日 星期日
Machine Learning(0001)
不少做人工智慧研究的人都得需要了解機械學習
不過大多數的中文書沒有針對某些機械學習理論作較深入的討論
這裡提供一些自己的學習心得跟大家分享
先介紹的是 eXtended Classifier System (XCS)
它是 Learning Classifier System (LCS) 的一個分支
這是目前相當多人在研究和應用的理論
當然,沒有完美的理論;所以,優缺點也一定都有。
不過,我個人喜歡的是它的學習結果是人類容易了解的 "Rule"。
說明白就是我們所說的:
如果明天下雨我們就不去郊遊
在 XCS 就是:
if 明天下雨 then 不去郊遊
看起來應該淺顯易懂吧。不像類神經網路那樣,像個魔術師的盒子,只知道輸入 A 會得到輸出 B,而為什麼會有這樣的關聯,還是沒人能看懂 "內幕"。
首先,XCS 是 Stewart W. Wilson 在 1995 提出的, 是屬於強化學習 (Reinforcement Learning) 的一種,也就是在嘗試錯誤中學習:

其學習步驟大致上為:
1) 代理人 (Agent) 從 環境取得身邊的狀態 (Local State 's') 。
2) 代理人執行決策後的動作 (Action 'a')。
3) 代理人會由環境的改變得到該有的獎懲 (Reward 'r')。當然既然是獎懲就代表著有好也有壞的回報值。
不過大多數的中文書沒有針對某些機械學習理論作較深入的討論
這裡提供一些自己的學習心得跟大家分享
先介紹的是 eXtended Classifier System (XCS)
它是 Learning Classifier System (LCS) 的一個分支
這是目前相當多人在研究和應用的理論
當然,沒有完美的理論;所以,優缺點也一定都有。
不過,我個人喜歡的是它的學習結果是人類容易了解的 "Rule"。
說明白就是我們所說的:
如果明天下雨我們就不去郊遊
在 XCS 就是:
if 明天下雨 then 不去郊遊
看起來應該淺顯易懂吧。不像類神經網路那樣,像個魔術師的盒子,只知道輸入 A 會得到輸出 B,而為什麼會有這樣的關聯,還是沒人能看懂 "內幕"。
首先,XCS 是 Stewart W. Wilson 在 1995 提出的, 是屬於強化學習 (Reinforcement Learning) 的一種,也就是在嘗試錯誤中學習:

其學習步驟大致上為:
1) 代理人 (Agent) 從 環境取得身邊的狀態 (Local State 's') 。
2) 代理人執行決策後的動作 (Action 'a')。
3) 代理人會由環境的改變得到該有的獎懲 (Reward 'r')。當然既然是獎懲就代表著有好也有壞的回報值。
訂閱:
文章 (Atom)