--課程已於 2020 年 7 月更新--
這個課程是關於整合方法 (Ensemble Methods)。
我們已經學習了一些經典的機器學習模型,如 k-nearest neighbor 和決策樹。 我們已經研究了他們的局限和缺點。
但是,如果我們可以結合這些模型來消除這些限制,並產生更強大的分類器或迴歸器呢?
在本課程中,你將學習如何將決策樹和邏輯迴歸等模型相結合,以建立可以達到比基礎模型更高的精度的模型。
具體來說,我們將詳細研究隨機森林和 AdaBoost 演算法。
為了激勵我們的討論,我們將學習統計學習中一個重要的話題 – 偏差 – 變異權衡 ( bias-variance trade-off )。然後,我們將研究 bootstrap 技術和 bagging 作為同時減少偏差和變異的方法。
我們將做大量的實驗,並在真實的資料集上使用這些演算法,這樣你就可以親眼看到它們是多麼的強大。
https://softnshare.com/machine-learning-in-python-random-forest-adaboost/
Search