机器学习算法笔记(三十六):Bagging

虽然我们上文实现了简单的集成学习,但是它还是存在着问题——从投票的角度来看,这些算法仍然不够。如果我们想尽量保证最终有好的结果的话,我们希望有成千上万的投票者来保证最终的结果更加可信(概率论中的“大数定理”)。所以我们就需要创建更多子模型、集成更多子模型的意见,且子模型之间要用差异性,创建差异性的一个重要思路就是对子模型运用放回取样(Bagging)不放回取样(Pasting)阅读全文

机器学习算法笔记(三十五):集成学习初探

从本文开始,我们来讨论机器学习中非常重要的一类方法——集成学习。

一、什么是集成学习

简而言之,集成学习的思路就是:我们在解决一个问题(如分类问题)的时候,选取多种算法参与预测(如下图中的算法都可以解决分类问题),在多个预测结果中,选择出现最多的预测类别做为该样本的最终预测类别。 阅读全文

二叉树各种基本操作的C++实现并进行面向对象的封装

学习完二叉树后,为了巩固二叉树的知识、加深对二叉树的理解,故运用 C++ 对各个操作进行实现并用类进行封装,顺便复习了 C++ 的有关知识。虽然在实现的过程中使用了泛型,但是实际使用时只能传入 char,运用泛型只是复习对泛型的运用而已。 阅读全文