0


人工智能与机器学习原理精解【27】

文章目录

集成学习

集成学习概述

集成学习的定义

集成学习(Ensemble Learning)是一种机器学习范式,通过构建并结合多个学习器(也被称为基学习器或组件学习器)来完成学习任务。这些学习器可以是从同一种学习算法产生的同质学习器,也可以是从不同学习算法产生的异质学习器。集成学习的核心思想是“好而不同”,即基学习器应该具有好的性能,并且它们之间的预测结果应该具有差异性,以提高整体的泛化性能。

集成学习的性质

集成学习的主要性质包括:

  1. 多样性:基学习器之间的差异性是集成学习性能提升的关键。这种差异性可以通过不同的训练数据、不同的学习算法、不同的参数设置等方式来引入。
  2. 鲁棒性:集成学习通过结合多个学习器的预测结果,能够减少单一学习器因数据噪声或模型偏差带来的过拟合风险,从而提高模型的鲁棒性。
  3. 准确性:通过结合多个学习器的预测结果,集成学习通常能够获得比单一学习器更高的预测准确性。

集成学习的算法过程

集成学习的算法过程大致可以分为以下几步:

  1. 生成基学习器:使用一种或多种学习算法从训练数据中生成多个基学习器。这些基学习器可以是同质的,也可以是异质的。
  2. 结合基学习器:通过某种策略将基学习器的预测结果结合起来,得到最终的预测结果。常见的结合策略包括平均法、投票法和学习法(如Stacking)。

集成学习的算法描述

以Bagging和Boosting为例,简要描述集成学习的算法过程:

  1. Bagging:- 步骤:从原始训练集中通过有放回抽样得到多个训练子集;在每个训练子集上训练一个基学习器;最后通过投票或平均的方式结合基学习器的预测结果。- 代表算法:随机森林(Random Forest),即Bagging与决策树结合的算法。
  2. Boosting:- 步骤:从原始训练集训练出一个基学习器;根据基学习器的预测结果调整训练样本的权重,使得预测错误的样本在后续训练中受到更多关注;基于调整后的样本权重训练下一个基学习器;重复上述过程,直到基学习器数目达到预设值;最后通过加权投票的方式结合基学习器的预测结果。- 代表算法:AdaBoost、Gradient Boosting(包括GBDT和XGBoost)。

集成学习的例子和例题

例子:随机森林是一种集成学习算法,它通过构建多个决策树并将它们的预测结果进行投票或平均来得到最终的预测结果。随机森林在分类、回归等任务中都有广泛的应用。

例题:假设有一个二分类问题,使用随机森林算法进行分类。首先,通过有放回抽样从原始训练集中生成多个训练子集;然后,在每个训练子集上训练一个决策树作为基学习器;最后,通过投票的方式结合所有决策树的预测结果得到最终的分类结果。

Julia实现集成学习

在Julia中实现集成学习,虽然没有像Python的scikit-learn那样直接提供完整集成学习框架的库,但我们可以利用Julia现有的机器学习库,如MLJ,来构建集成学习模型。MLJ是一个灵活的机器学习库,它提供了许多算法和工具,可以用于实现集成学习。

以下是一个使用MLJ在Julia中实现简单Bagging集成学习的示例。这个示例将使用决策树作为基学习器,并通过Bagging的方式来结合它们。

首先,确保你已经安装了MLJ和相关的依赖库。你可以使用Julia的包管理器来安装它们:

using Pkg
Pkg.add("MLJ")
Pkg.add("MLJBase")
Pkg.add("MLJEnsembles")
Pkg.add("DecisionTree")

接下来,是实现Bagging集成学习的代码:

using MLJ
using MLJBase
using MLJEnsembles
using DecisionTree

# 加载数据集(这里以iris数据集为例)
data = load_iris()
X = data.X
y = data.y

# 划分训练集和测试集
train, test = partition(eachindex(y), 0.7, shuffle=true, rng=123)

# 定义基学习器(这里使用决策树)
base_learner = DecisionTreeClassifier()

# 定义Bagging集成学习器
bagging_model = BaggingEnsemble(
    base_learner=base_learner,
    n_estimators=10,         # 使用10个基学习器
    sampling_fraction=0.8,   # 每个基学习器使用80%的训练数据
    replace=true,            # 有放回抽样
    rng=123                  # 随机数种子
)

# 训练集成学习器
fit!(bagging_model, X[train, :], y[train])

# 评估集成学习器
predictions = predict(bagging_model, X[test, :])
accuracy = sum(predictions .== y[test]) / length(y[test])
println("Accuracy: ", accuracy)

请注意,这个示例代码可能需要根据你安装的MLJ和相关库的具体版本来进行调整。此外,MLJEnsembles库可能不直接包含Bagging的实现(这取决于库的发展情况),因此你可能需要自己实现Bagging的逻辑,或者查找其他可用的Julia库或资源。

如果你发现MLJEnsembles没有直接提供Bagging,你可以通过自己编写循环来训练多个基学习器,并使用投票或平均等方式来结合它们的预测结果。这通常涉及以下步骤:

  1. 对训练数据进行有放回抽样,生成多个训练子集。
  2. 在每个训练子集上训练一个基学习器。
  3. 对测试数据,使用每个基学习器进行预测。
  4. 结合基学习器的预测结果(例如,通过投票或平均)得到最终的预测。

在Julia中实现这些步骤需要一些编程技巧,但得益于Julia的高性能和灵活性,你可以根据自己的需求定制集成学习算法。

集成学习数学原理

一、基学习器的生成

集成学习的第一步是生成多个基学习器。这些基学习器可以是同质的(如都是决策树或都是支持向量机),也可以是异质的(如包含决策树和神经网络)。在生成基学习器时,不同的集成学习方法(如Bagging、Boosting)会有不同的策略。

Bagging(装袋法)

Bagging方法通过有放回抽样从原始训练集中生成多个训练子集,每个子集用于训练一个基学习器。由于是有放回抽样,每个子集可能包含重复的样本,也可能不包含某些原始样本。Bagging的主要目的是通过样本扰动增加基学习器之间的多样性。

Boosting(提升法)

Boosting方法则通过调整训练样本的权重来生成多个基学习器。在Boosting的每一轮迭代中,都会根据前一轮基学习器的预测结果来更新样本权重,使得预测错误的样本在后续轮次中受到更多的关注。通过这种方法,Boosting逐步将弱学习器提升为强学习器。

二、基学习器的结合策略

在生成多个基学习器后,需要采用某种策略将它们结合起来以得到最终的预测结果。常见的结合策略包括平均法、投票法和学习法(如Stacking)。

平均法

对于回归问题,通常使用平均法来结合基学习器的预测结果。平均法可以分为简单平均和加权平均。

  • 简单平均:将各个基学习器的预测结果直接相加后求平均。数学公式为: H ( x ) = 1 T ∑ i = 1 T h i ( x ) H(x) = \frac{1}{T} \sum_{i=1}^{T} h_i(x) H(x)=T1​i=1∑T​hi​(x)其中, H ( x ) H(x) H(x) 是最终的预测结果, T T T 是基学习器的数量, h i ( x ) h_i(x) hi​(x) 是第 i i i 个基学习器的预测结果。
  • 加权平均:为不同的基学习器分配不同的权重,然后将加权后的预测结果相加。数学公式为: H ( x ) = ∑ i = 1 T w i h i ( x ) H(x) = \sum_{i=1}^{T} w_i h_i(x) H(x)=i=1∑T​wi​hi​(x)其中, w i w_i wi​ 是第 i i i 个基学习器的权重,且满足 ∑ i = 1 T w i = 1 \sum_{i=1}^{T} w_i = 1 ∑i=1T​wi​=1。
投票法

对于分类问题,通常使用投票法来结合基学习器的预测结果。投票法可以分为绝对多数投票法、相对多数投票法和加权投票法。

  • 绝对多数投票法:要求某标记的票数必须超过半数才能作为最终的预测结果。
  • 相对多数投票法:预测为得票最多的标记,若同时有多个标记的票数最高,则随机选择一个。
  • 加权投票法:类似于加权平均法,为不同的基学习器分配不同的权重,然后将加权后的票数相加。
学习法(Stacking)

Stacking是一种更复杂的结合策略,它通过将基学习器的预测结果作为新的特征,然后训练一个新的学习器来得到最终的预测结果。Stacking的数学公式可以表示为:

      H 
     
    
      ( 
     
    
      x 
     
    
      ) 
     
    
      = 
     
    
      g 
     
    
      ( 
     
    
      ϕ 
     
    
      ( 
     
     
     
       h 
      
     
       1 
      
     
    
      ( 
     
    
      x 
     
    
      ) 
     
    
      , 
     
     
     
       h 
      
     
       2 
      
     
    
      ( 
     
    
      x 
     
    
      ) 
     
    
      , 
     
    
      … 
     
    
      , 
     
     
     
       h 
      
     
       T 
      
     
    
      ( 
     
    
      x 
     
    
      ) 
     
    
      ) 
     
    
      ) 
     
    
   
     H(x) = g(\phi(h_1(x), h_2(x), \ldots, h_T(x))) 
    
   
 H(x)=g(ϕ(h1​(x),h2​(x),…,hT​(x)))

其中,

     H 
    
   
     ( 
    
   
     x 
    
   
     ) 
    
   
  
    H(x) 
   
  
H(x) 是最终的预测结果, 
 
  
   
   
     g 
    
   
  
    g 
   
  
g 是新的学习器, 
 
  
   
   
     ϕ 
    
   
  
    \phi 
   
  
ϕ 是一个映射函数,用于将基学习器的预测结果映射到新的特征空间, 
 
  
   
    
    
      h 
     
    
      i 
     
    
   
     ( 
    
   
     x 
    
   
     ) 
    
   
  
    h_i(x) 
   
  
hi​(x) 是第  
 
  
   
   
     i 
    
   
  
    i 
   
  
i 个基学习器的预测结果。

三、集成学习的整体性能提升

集成学习的整体性能提升可以从偏差-方差分解的角度来解释。Bagging方法主要通过减少基学习器之间的方差来提升集成学习的性能,因为每个基学习器都是在有放回抽样得到的训练子集上训练的,所以它们之间的差异性较大。而Boosting方法则通过逐步调整训练样本的权重来减少基学习器之间的偏差,因为每个基学习器都是在前一轮基学习器的预测结果基础上进行训练的,所以它们之间的偏差会逐渐减小。

总的来说,集成学习的数学原理和公式涉及基学习器的生成、基学习器的结合策略以及集成学习的整体性能提升等多个方面。通过合理的基学习器生成策略和结合策略,集成学习可以获得比单一学习器更好的性能。

参考文献

  1. 文心一言

本文转载自: https://blog.csdn.net/sakura_sea/article/details/142590828
版权归原作者 叶绿先锋 所有, 如有侵权,请联系我们删除。

“人工智能与机器学习原理精解【27】”的评论:

还没有评论