16.4 文献笔记¶
原文 | The Elements of Statistical Learning |
---|---|
翻译 | szcf-weiya |
发布 | 2017-06-09 |
更新 | 2018-08-18 |
状态 | Done |
如在导言中说到的那样,机器学习中的许多新方法都被称为“ensemble”方法.这其中包括 neural networks boosting, bagging 和 随机森林; Dietterich (2000a)1 调查了基于树的集成 (ensemble) 方法.神经网络(第 11 章)或许更值得这个名字,因为他们同事学习隐藏单元(基函数)的参数,并且考虑怎样结合他们.Bishop (2006)2 在某些细节上讨论了神经网络,以及贝叶斯观点 (MacKay, 19923; Neal, 19964).支持向量机(第 12 章)也可以看成是集成方法;它们在高维特征空间中拟合 $L_2$ 正则化模型.Boosting 和 Lasso 通过 $L_1$ 正则化利用稀疏性来解决高维问题,而 SVMs 依赖 $L_2$ 惩罚的“核技巧”的性质.
C5.0 (Quinlan, 20045) 是一个 committee 树和规则生成包,与 Rulefit
有相同的目标.
有大量且不同的文献经常被称作“组合分类器”,它在用于混合不同类型的方法的 ad-hoc 模式中大量存在,能够达到更好的性能.有关原则的方法,参见 Kittler et al. (1998)6.
-
Dietterich, T. (2000a). Ensemble methods in machine learning, Lecture Notes in Computer Science 1857: 1–15. ↩
-
Bishop, C. (2006). Pattern Recognition and Machine Learning, Springer, New York. ↩
-
MacKay, D. (1992). A practical Bayesian framework for backpropagation neural networks, Neural Computation 4: 448–472. ↩
-
Neal, R. (1996). Bayesian Learning for Neural Networks, Springer, New York. ↩
-
Quinlan, R. (2004). C5.0, www.rulequest.com ↩
-
Kittler, J., Hatef, M., Duin, R. and Matas, J. (1998). On combining classifiers, IEEE Transaction on Pattern Analysis and Machine Intelligence 20(3): 226–239. ↩