系列文章目录
第一章 【机器学习】初识机器学习
第二章 【机器学习】【监督学习】- 逻辑回归算法 (Logistic Regression)
第三章 【机器学习】【监督学习】- 支持向量机 (SVM)
第四章【机器学习】【监督学习】- K-近邻算法 (K-NN)
第五章【机器学习】【监督学习】- 决策树 (Decision Trees)
第六章【机器学习】【监督学习】- 梯度提升机 (Gradient Boosting Machine, GBM)
第七章 【机器学习】【监督学习】-神经网络 (Neural Networks)
第八章【机器学习】【监督学习】-卷积神经网络 (CNN)
第九章【机器学习】【监督学习】-循环神经网络 (RNN)
第十章【机器学习】【监督学习】-线性回归
第十一章【机器学习】【监督学习】-局部加权线性回归 (Locally Weighted Linear Regression, LWLR)
第十二章【机器学习】【监督学习】- 岭回归 (Ridge Regression)
十三、【机器学习】【监督学习】- Lasso回归 (Least Absolute Shrinkage and Selection Operator)
十四、【机器学习】【监督学习】- 弹性网回归 (Elastic Net Regression)
十五、【机器学习】【监督学习】- 神经网络回归
十六、【机器学习】【监督学习】- 支持向量回归 (SVR)
十七、【机器学习】【非监督学习】- K-均值 (K-Means)
十八、【机器学习】【非监督学习】- DBSCAN (Density-Based Spatial Clustering of Applications with Noise)十九、【机器学习】【非监督学习】- 层次聚类 (Hierarchical Clustering)二十、【机器学习】【非监督学习】- 均值漂移 (Mean Shift)
二十一、【机器学习】【非监督学习】- 谱聚类 (Spectral Clustering)
一、基本定义
(一)、监督学习
监督学习(Supervised Learning)是机器学习中的一种主要方法,其核心思想是通过已知的输入-输出对(即带有标签的数据集)来训练模型,从而使模型能够泛化到未见的新数据上,做出正确的预测或分类。在监督学习过程中,算法“学习”的依据是这些已标记的例子,目标是找到输入特征与预期输出之间的映射关系。
(二)、监督学习的基本流程
数据收集:获取包含输入特征和对应正确输出标签的训练数据集。
数据预处理:清洗数据,处理缺失值,特征选择与转换,标准化或归一化数据等,以便于模型学习。
模型选择:选择合适的算法,如决策树、支持向量机、神经网络等。
训练:使用训练数据集调整模型参数,最小化预测输出与实际标签之间的差距(损失函数)。
验证与调优:使用验证集评估模型性能,调整超参数以优化模型。
测试:最后使用独立的测试集评估模型的泛化能力,确保模型不仅在训练数据上表现良好,也能在未见过的新数据上做出准确预测。
(三)、监督学习分类算法(Classification)
定义:分类任务的目标是学习一个模型,该模型能够将输入数据分配到预定义的几个类别中的一个。这是一个监督学习问题,需要有一组已经标记好类别的训练数据,模型会根据这些数据学习如何区分不同类别。
例子:垃圾邮件检测(垃圾邮件 vs. 非垃圾邮件)、图像识别(猫 vs. 狗)。
二、 Kernel Ridge Regression
(一)、定义
Kernel Ridge Regression(KRR)是一种监督学习方法,用于回归问题。它结合了核方法和岭回归的优点,通过在特征空间中使用内积运算来解决非线性回归问题。KRR的目标是找到一个函数,该函数能够最小化预测值与实际目标值之间的平方误差,并加入正则化项以防止过拟合。
(二)、基本概念
- Ridge Regression: 这是一种线性回归模型,其中加入了L2正则化项。正则化项有助于减少模型参数的复杂度,从而提高模型的泛化能力。
- Kernel Trick: 在高维或无限维特征空间中直接计算内积而不是显式地计算特征映射,这种方法可以有效地处理非线性关系的数据。
- Reproducing Kernel Hilbert Space (RKHS): 这是一个希尔伯特空间,在这个空间中,每个函数都与其评估算子相对应,即可以通过内积运算直接得到函数在某一点的值。KRR就是在这样的空间中进行的。
(三)、训练过程
- 数据准备: - 收集训练数据集,其中 xi 是输入特征向量,yi 是对应的输出值。
- 选择核函数: - 选取合适的核函数 ,这里 �ϕ 表示从原始特征空间到高维特征空间的映射。
- 构建优化问题: - 构建一个包含损失函数和正则化项的优化问题: - 其中 H 是由所选核函数定义的RKHS,λ>0 是正则化参数。
- 求解模型参数: - 利用核技巧,可以证明最优解 ,其中 αi 是模型系数。- 通过解下面的线性系统找到 α: - 其中 K 是核矩阵,其元素为 ,I是单位矩阵,y是目标值向量。
(四)、特点
- 非线性处理能力:能够处理非线性关系,通过核函数将数据映射到高维空间。
- 正则化:通过正则化参数 λ 控制模型复杂度,避免过拟合。
- 解析解:对于给定的训练数据和核函数,KRR 通常具有解析解,使得求解过程较为简单且快速。
- 泛化性能:通常具有较好的泛化能力,尤其是在小样本情况下。
(五)、适用场景
- 当数据具有复杂的非线性结构时。
- 当样本数量不是特别大时(因为需要计算核矩阵,计算量随样本数增加而增加)。
- 当需要较好的解释性和可控性时。
(六)、扩展
- 多任务学习:可以扩展到多任务学习框架,同时学习多个相关的回归任务。
- 在线学习:虽然传统的 KRR 需要一次性加载所有数据,但也可以通过近似方法实现在线学习。
- 核选择:可以通过交叉验证等技术来选择最优的核函数。
- 稀疏近似:为了减少计算复杂度,可以使用核近似方法(如Nyström方法或随机傅立叶特征)来构造稀疏的核矩阵。
三、总结
Kernel Ridge Regression (KRR) 是一种有效的回归方法,它利用核技巧和正则化来处理非线性数据并防止过拟合。KRR 通常具有解析解,这使得模型易于训练,并且由于其正则化特性,它在小样本集上表现良好。KRR 适用于处理具有复杂非线性模式的数据,并且可以通过各种扩展方法进一步增强其功能。
四、相关书籍介绍
《数据挖掘导论》
适用读者
- 初学者:对数据挖掘感兴趣,希望了解基本概念和技术的新手。
- 学生:计算机科学、统计学、商业智能等相关专业的本科生或研究生。
- 研究人员:需要使用数据挖掘技术进行学术研究的科研人员。
- 专业人士:数据分析师、数据科学家、业务分析师等希望提升技能的专业人士。
- 管理者:希望了解如何利用数据驱动决策的企业高管和技术经理。
书籍下载链接:
链接:https://pan.baidu.com/s/1kNzhiII-8i0wsVrKYe3sIA?pwd=iesy
提取码:iesy
版权归原作者 暴躁的大熊 所有, 如有侵权,请联系我们删除。