機器學習中的分類具有一定的哲學意義,因為人類一旦知道了事物的分類,就可以采取一定的行動。下面粵嵌重慶嵌入式培訓機構為你解密一下機器學習中的“哲學”到底有哪些?
NFL定理。它由Wolpert在1996年提出,其應用領域原本為經濟學,NFL講的是優化模型的評估問題。在機器學習領域中,NFL的定律指明,如果我們對要解決的問題一無所知且并假設其分布完全隨機且平等,那么任何算法的預期性能都是相似的。這個定理對于“盲目的算法崇拜”有毀滅性的打擊。然而,從另一個角度說,我們對于要解決的問題往往不是一無所知,因此大部分情況下我們的確知道什么算法可以得到較好的結果。正因如此,我們才需要研究和發明更多的機器學習算法來處理不同的假設和數據。
奧卡姆剃刀定理。它是由十二世紀的英國教士及哲學家奧卡姆提出的:“ 如無必要,勿增實體”。奧卡姆剃刀定理對于機器學習的意義在于它給出了一種模型選擇的方法,對待過擬合問題有指導意義。但讀者應該注意,奧卡姆剃刀定理只是一種對于模型選擇的指導方向,不同的選擇方向如集成學習就給出了近似相反的選擇標準。現實世界是非常復雜的,切勿濫用。
集成學習。集成學習的哲學思想是“眾人拾柴火焰高”,和其他機器學習模型不同,集成學習將多個較弱的機器學習模型合并起來來一起決策。比較常見的方法有多數投票法,即少數服從多數。從某種意義上說,神經網絡也是一種集成學習,相信敏銳的讀者已經發現,集成學習似乎和前面提到的奧卡姆剃刀定理相違背。奧卡姆剃刀定理并非不可辯駁的真理,而只是一種選擇方法從事科學研究,切勿相信有普遍真理。
頻率學派和貝葉斯學派。對于不熟悉的讀者來說,無論是機器學習還是統計學習都是一種尋找一種映射,或者更廣義的說,進行參數估計。頻率學派相信參數是客觀存在的,雖然未知,但不會改變。因此頻率學派的方法一直都是試圖估計“哪個值接近真實值”,相對應的我們使用似然估計,置信區間, 和p-value。因此這一切都是體現我們對于真實值估算的自信和可靠度。而貝葉斯學派相信參數不是固定的,我們需要發生過的事情來推測參數,這也是為什么總和先驗及后驗過不去,才有了后驗即MAP。貝葉斯學派的優勢在于承認未知的存在,因此感覺更符合我們的常識“不可知論”。據我不權威觀察,統計學出身的人傾向于頻率學派而機器學習出身的人更傾向于貝葉斯學派。
接觸機器學習的早期階段,時間往往都花在了研究算法上。隨著學習的深入,相信大家會慢慢發現其實算法思想的精髓是無處不在的妥協。以上是粵嵌重慶嵌入式培訓機構為你解密機器學習中的“哲學”。