万壑松风知客来,摇扇抚琴待留声
1. 文起
集成算法作为机器学习中的一大亮点,并且在多数场景下得到了很好的实践效果,例如 Kaggle、天池等很多比赛中选手最后都会将众多较优模型进行集成,得到其融合效果,往往这种方法等得到更优的结果。
目前集成算法大致包括了 Bagging(袋装)、Boosting(提升)、Stacking(堆叠)、Blending(混合)等几个大的思想。其中袋装以随机森林作为代表,提升以梯度提升一些列为代表。本文对这两个算法暂时不做介绍,重点说说堆叠的集成方式。
2. Stacking 思想
通过结合策略,可以将个体学习器进行集成在一起。对于分类问题,可以通过投票法选择出得票最多的类;对于回归问题,可以通过平均法求所有学习器输出结果的平均值。Stacking 与前面两种方式不同,通过一个机器学习器将其它多个个体机器学习器的预测结果结合作为样本数据来进行训练、预测。
相比于同质集成算法 Bagging、Boosting,Stacking 属于异质集成算法。在 Stacking 中个体学习器叫做初级学习器,用于结合的学习器叫做次级学习器或元学习器(meta-learner),次级学习器用于训练的数据叫做次级训练集。次级训练集是在训练集上用初级学习器得到的。你可以使用加入任何你觉得效果好的初级模型,并且次级模型也是可以任意选择的。
3. 实现方式
下图是 Stacking 的实现原理:

乍一眼看有点晕,不过一点点细看其实并不难,比 Boosting 还要简单,稍微总结一下:
以上是两个阶段的 Stacking,也是比较常用的构建方式。第一层由多个个体学习器组成,第二层由第一层的个体学习器输出作为特征加入训练集通过次级学习器在训练。
上图中可以看到首先将整体数据划分为 m 行训练集(Training Data)和 n 行测试集(Test Data),并且第一层的个体学习器使用了 5 个模型,每个模型的处理方式,训练集都使用了 5 折的交叉验证。以 Model1 为例,训练集再划分每次使用其中四折作为训练样本(Learn),剩下一折数据作为测试样本(Predict),然后使用 Model1 对训练样本训练,对测试样本进行预测得到该折的预测值,Model1 如此重复 5 次直至交叉验证完成,最后会得到每折的一个预测结果,将他们按列组合后就是整个训练集大小列的预测结果,形如 (m行X1列)的预测结果数据集。注意在交叉验证的过程中,每次训练的模型不仅要对训练集划分的测试集预测,还要对真正的测试集进行预测。如按照 5 折交叉验证,那么最后对真正的测试集将会产生 5 份预测结果,这 5 个结果按行取均值得到(n行X1列)的测试集预测结果,到此第一层的第一个个体模型 Model1 就完成它的工作。
按照 Model1 的方式,重复每个个体模型(这里的 Model2、Model3、Model4、Model5),最后会得到 5 个(m行X1列)的模型对训练集预测结果,和 5 个(n行X1列)的模型对测试集预测结果。这些结果将作为新特征加入第二层的模型训练和预测。
整个数据集上的真实标签的使用理解起来有点难,只需要记得每个样本和它的标签一一相对应,只有在作为训练集训练模型时才使用,比如对划分的训练集进行交叉验证时,四折作为训练集它们的真实标签会参与当前模型训练,剩下一折的测试数据只会对其进行预测,不会用到它们的真实标签。真实的测试数据在两个阶段都不会用到它们的标签。
上面完成了比较绕的第一阶段。第二阶段使用 5 个(m行X1列)的预测数据集按行排列组成新的训练集,使用 5 个(n行X1列)的预测数据集按行排列组成新的测试集。使用次级模型对它们训练和预测,得到测试集上的预测结果,此时可以与测试集的真实标签进行准确性分析。
4. 函数实现与封装
理解思想是一方面,代码实现是一方面,如果能从基础思想中构建出实现代码那基本上就是大体掌握了 Stacking。下面将给出两部分代码,第一部分是分为函数逐步实现的过程,第二部分是对 Stacking 封装成类似 Sklearn 接口的类。
1 | import pandas as pd |
以上是函数式的实现方式,较为详细可以先理解清楚。下面对其进行封装,封装后的 Stacking 只需要实例化对象后传入接口规范化数据即可实现 fit、predict 方法:
1 | import numpy as np |
5. 文末
深刻理解第 3 点后,再理解第 4 点的代码实现就算差不多掌握了 Stacking 的集成原理。集成算法的使用当下应当是大势所趋,所以多掌握一种思想也未尝不是好事呢。