0


山东大学机器学习期末2022

接力:山东大学机器学习期末2021
本来是不想写的,因为不想回忆起考试时啥也不会的伤痛,没想到最后给分老师海底捞,心情好了一些,还是一块写完

备考建议:多看ppt,多看ppt,多看ppt

山东大学机器学习期末考试2022

考试范围

  1. SMO

不考,

  1. PCA

那一章因子分析不考,最后一章

  1. learning theory

只考

  1. Bias-Variance Complexity

  1. Decomposition


跟去年不太一样,比如去年不考

  1. GDA

,今年我们的第二题就跟

  1. GDA

的一个推论很像,考试范围最后一节课老师会说。

一、线性回归+牛顿法

考了线性回归的概率解释。

在这里插入图片描述
(1)问

  1. p
  2. (
  3. y
  4. x
  5. ;
  6. θ
  7. )
  8. p(y|x;\theta)
  9. p(yx;θ)(这里
  10. θ
  11. T
  12. x
  13. \theta^T x
  14. θTx均是确定的哦)

(2)写出最大似然函数
(3)证明通过最大似然求解等价于求解最小二乘

然后,答案全在ppt上。

(4)求正则化线性回归的正规方程(作业题)

二、高斯朴素贝叶斯

(也许是叫这个名儿,可以上网搜搜)
(1)在原来贝叶斯的基础上,增加假设

  1. Y
  2. Y
  3. Y符合伯努利分布,参数为
  4. p
  5. p
  6. p
  7. X
  8. Y
  9. X|Y
  10. XY符合正态分布,均值为
  11. μ
  12. i
  13. j
  14. \mu_{ij}
  15. μij​,方差为
  16. σ
  17. i
  18. j
  19. \sigma_{ij}
  20. σij​,写出最大似然函数(其实就是贝叶斯的最大似然代入以上具体的概率分布)

(2)证明

  1. P
  2. (
  3. Y
  4. X
  5. )
  6. =
  7. 1
  8. 1
  9. +
  10. ?
  11. P(Y|X)=\frac{1}{1+?}
  12. P(YX)=1+?1​,其中
  13. ?
  14. =
  15. f
  16. (
  17. p
  18. ,
  19. μ
  20. ,
  21. σ
  22. )
  23. ?=f(p,\mu,\sigma)
  24. ?=f(p,μ,σ)(证明形式是这样,,具体忘了,,求解最大似然估计参数
  25. p
  26. ,
  27. μ
  28. ,
  29. σ
  30. p,\mu,\sigma
  31. p,μ,σ,然后用参数表示?)

三、软间隔SVM变形

在这里插入图片描述
松弛一项变为

  1. C
  2. i
  3. =
  4. 1
  5. m
  6. ξ
  7. i
  8. 2
  9. C\sum_{i=1}^{m_i^2
  10. Ci=1m​ξi2

(1)写出KTT条件
(2)求对偶问题

四、简答题

(跟之前的大差不差)

  1. pca算法的步骤
  2. 核方法在K-means算法上的应用
  3. Bias,Variance和模型复杂度关系
  4. K-means算法的步骤

本文转载自: https://blog.csdn.net/qq_23096319/article/details/129250837
版权归原作者 u小鬼 所有, 如有侵权,请联系我们删除。

“山东大学机器学习期末2022”的评论:

还没有评论