0


电子科技大学人工智能期末复习笔记(五):机器学习


前言

本复习笔记基于李晶晶老师的课堂PPT与复习大纲,供自己期末复习与学弟学妹参考用。

本节是人工智能复习的最后一小节,重点在于了解概念,会做计算题。

前面几节都在专栏当中,可以自行查看,也可以走传送门:

电子科技大学人工智能期末复习笔记(一):搜索问题

电子科技大学人工智能期末复习笔记(二):MDP与强化学习

电子科技大学人工智能期末复习笔记(三):一阶逻辑

电子科技大学人工智能期末复习笔记(四):概率与贝叶斯网络


监督学习 vs 无监督学习

监督学习:输入已知类别的数据样本 分类、回归

无监督学习:输入未知类别的数据样本 聚类


回归 vs 分类 Regression vs Classification

分类:对输入数据进行离散值标签的预测

回归:预测连续的、具体的数值

Output: 连续 vs 离散

分类需要激活函数


训练集 vs 测试集 vs 验证集

训练集用于学习参数(例如模型概率)

测试集用于计算模型的准确率

验证集用于调节超参数


泛化和过拟合 Generalization & Overfitting

在有监督学习中,我们会在训练数据集上建立一个模型,之后会把这个模型用于新的,之前从未见过的数据中,这个过程称为模型的泛化

模型在训练集上表现好,在测试集验证集表现差就说明出现了过拟合问题,出现这种情况的主要原因是训练数据中存在噪音或者训练数据太少

解决办法:选取合适的停止训练标准;使用验证数据集;获取额外数据进行交叉验证;正则化

Relative frequency parameters will overfit the training data

相对频率参数会过拟合训练数据


线性分类器 Linear Classifiers

输入特征向量 f(x)

权重**向量 ** w

在二分类中:

真实标签为 y*∈{-1,1},

预测标签为 y ,w和f(x)在同一平面则为正样本,y=1,反之y=-1

如果分类正确,不更新w,分类错误则更新 w

w = w + y · f(x) ** 其中y = 1或-1

在多分类中:

输入特征向量 f(x)

每个类别的权重 **向量 **

预测标签为 y ,取最大的一个类别标签

如果分类正确,不更新w;分类错误则更新 w,此时需要分别对正确和错误的两个w进行更新

关键点减小错分类别的向量点积,增大真实类别的向量点积


激活函数 - 概率决策


线性回归

L2 loss:所有样本的平方误差和

例:


决策树 Decision Trees

决策树构建递归退出条件C

  • 当前样本集D包含的样本属于同一类别C
  • 当前属性集A为空或样本集D中所有样本在所有属性上取值相同(但类别可能不相同)
  • 当前结点包含的样本集为空

信息熵 Entropy

信息熵是度量样本集合纯度的指标

假定当前样本集合D中第k类样本所占比例为pk(k=1,2,...,|y|)则D的信息熵的定义为:

Ent(D)的取值范围为 [0,log2|y| ],值越小,纯度越高

计算信息熵时约定:若p=0,则=0

信息增益 Information Gain

样本集D的某个离散属性a有V个可能的取值,用a来对D进行划分则会产生V个分支结点,其中第v个分支结点包含了D中所有在在属性a上取值为的样本,记为。定义用属性a对样本集D进行划分所获得的信息增益为:

一般而言,信息增益越大,意味着使用属性a来进行划分获得的纯度提升越大

在ID3算法中选择信息增益大的属性来划分样本集

⚠ID3算法实例


总结

至此人工智能复习笔记更新完毕,后续有时间会更新一下实验的讲解,包括基于A*算法的八数码问题求解、ID3决策树实战、以及Q-learning和Sarsa实现的悬崖问题求解。


本文转载自: https://blog.csdn.net/m0_59180666/article/details/128962573
版权归原作者 Vec_Kun 所有, 如有侵权,请联系我们删除。

“电子科技大学人工智能期末复习笔记(五):机器学习”的评论:

还没有评论