0


【人工智能】保姆级波士顿房价预测

一、实验背景

波士顿房价预测是一个经典的机器学习任务,类似于程序员世界的“Hello World”。和大家对房价的普遍认知相同,波士顿地区的房价是由诸多因素影响的。该数据集统计了13种可能影响房价的因素和该类型房屋的均价,期望构建一个基于13个因素进行房价预测的模型,如 图1 所示。
在这里插入图片描述

图1:波士顿房价影响因素示意图

对于预测问题,可以根据预测输出的类型是连续的实数值,还是离散的标签,区分为回归任务和分类任务。因为房价是一个连续值,所以房价预测显然是一个回归任务。下面我们尝试用最简单的线性回归模型解决这个问题,并用神经网络来实现这个模型。

二、实验内容

2.1 假设空间

影响波士顿房价的因素:
feature_names = [ ‘CRIM’, ‘ZN’, ‘INDUS’, ‘CHAS’, ‘NOX’, ‘RM’,‘AGE’,‘DIS’, ‘RAD’, ‘TAX’, ‘PTRATIO’, ‘B’, ‘LSTAT’, ‘MEDV’ ]
假设多个影响房价的因素和房价之间是线性关系,可用线性方程表示

  1. y
  2. i
  3. =
  4. x
  5. 1
  6. w
  7. 1
  8. +
  9. x
  10. 2
  11. w
  12. 2
  13. +
  14. +
  15. x
  16. n
  17. w
  18. n
  19. +
  20. b
  21. y_{i}= x_{1}w_ {1}+ x_ {2}w_ {2}+\cdots+x_ {n}w_ {n}+b
  22. yi​=x1w1​+x2w2​+⋯+xnwn​+b
  23. y
  24. =
  25. i
  26. =
  27. 1
  28. n
  29. x
  30. i
  31. w
  32. i
  33. +
  34. b
  35. y= \sum _ {i=1}^ {n}x_ {i} w_ {i} +b
  36. y=i=1nxiwi​+b

2.2 线性回归原理

假设房价和各影响因素之间能够用线性关系来描述:

  1. y
  2. =
  3. M
  4. 2
  5. x
  6. j
  7. w
  8. j
  9. +
  10. b
  11. y= \frac {M}{2}x_ {j} w_ {j} +b
  12. y=2Mxjwj​+b

模型的求解即是通过数据拟合出每个

  1. w
  2. j
  3. w_j
  4. wj​​和
  5. b
  6. b
  7. b。其中,
  8. w
  9. j
  10. w_j
  11. wj​​和
  12. b
  13. b
  14. b分别表示该线性模型的权重和偏置。一维情况下,
  15. w
  16. j
  17. w_j
  18. wj​​和
  19. b
  20. b
  21. b 是直线的斜率和截距。

线性回归模型使用均方误差作为损失函数(Loss),用以衡量预测房价和真实房价的差异,公式如下

  1. M
  2. S
  3. E
  4. =
  5. 1
  6. n
  7. i
  8. =
  9. 1
  10. n
  11. (
  12. Y
  13. ^
  14. i
  15. Y
  16. i
  17. )
  18. 2
  19. MSE= \frac {1}{n} \sum _ {i=1}^ {n} (\widehat {Y}_ {i}-Y_ {i})^ {2}
  20. MSE=n1i=1n​(Yi​−Yi​)2

线性回归模型的神经网络结构:
在这里插入图片描述

2.3 优化目标

评价指标:使用均方差作为损失函数:衡量预测房价和真实房价的差异

  1. L
  2. O
  3. S
  4. S
  5. =
  6. 1
  7. n
  8. i
  9. =
  10. 1
  11. n
  12. (
  13. Y
  14. ^
  15. i
  16. Y
  17. i
  18. )
  19. 2
  20. LOSS= \frac {1}{n} \sum _ {i=1}^ {n} (\widehat {Y}_ {i}-Y_ {i})^ {2}
  21. LOSS=n1​∑i=1n​(Yi​−Yi​)2 考虑所有样本的误差,然后取平均数
  22. Y
  23. ^
  24. i
  25. \widehat {Y}_ {i}
  26. Yi 预测值
  27. ~~~~~~~~~~~~~~~~
  28. Y
  29. i
  30. Y_ {i}
  31. Yi​真实值

2.3 优化算法

优化算法:极小化损失函数(反向传播,梯度下降),确定参数

  1. w
  2. w
  3. w
  4. b
  5. b
  6. b 的值

三、实验过程

3.1 数据处理

在这里插入图片描述

1、数据读入
  1. import numpy as np #导入需要用到的packageimport pandas as pd
  2. import random
  3. data_path ='housing.data'
  4. feature_names =['CRIM','ZN','INDUS','CHAS','NOX','RM','AGE','DIS','RAD','TAX','PTRATIO','B','LSTAT','MEDV']
  5. feature_num =len(feature_names)# 数据集列数
  6. data = np.fromfile(data_path, sep=' ')
  7. data = data.reshape([data.shape[0]//feature_num, feature_num])# 向下取整
  8. data#展示数据

在这里插入图片描述

2、数据集划分—生成训练集、验证集和测试集
  1. train_num=10
  2. eval_num=9
  3. train_data =[]
  4. eval_data =[]
  5. test_data =[]for i inrange(len(data)):if i % test_num ==0:
  6. test_data.append(data[i])elif i % eval_num ==0:
  7. eval_data.append(data[i])else:
  8. train_data.append(data[i])
  9. train_data = np.array(train_data)
  10. eval_data = np.array(eval_data)
  11. test_data = np.array(test_data)

划分比例为:8:1:1

3、数据集处理—归一化
方法一:min-max归一化

也称为离差标准化,是对原始数据的线性变换,使结果值映射到[0 - 1]之间

  1. x
  2. n
  3. e
  4. w
  5. =
  6. x
  7. x
  8. min
  9. x
  10. max
  11. x
  12. min
  13. x_ {new} = \frac {x-x_ {\min }}{x_ {\max }-x_ {\min }}
  14. xnew​=xmax​−xminxxmin​​

其中max为样本数据的最大值,min为样本数据的最小值。这种归一化方法比较适用在数值比较集中的情况。但是,如果max和min不稳定,很容易使得归一化结果不稳定,使得后续使用效果也不稳定,实际使用中可以用经验常量值来替代max和min。而且当有新数据加入时,可能导致max和min的变化,需要重新定义。

  1. maximums, minimums = train_data.max(axis=0), train_data.min(axis=0)for i inrange(feature_num):
  2. train_data[:, i]=(train_data[:, i]- minimums[i])/(maximums[i]-minimums[i])
  3. eval_data[:, i]=(eval_data[:, i]- minimums[i])/(maximums[i]-minimums[i])
  4. test_data[:, i]=(test_data[:, i]- minimums[i])/(maximums[i]-minimums[i])
方法二: z-score归一化

这种方法给予原始数据的均值(mean)和标准差(standard deviation)进行数据的标准化。经过处理的数据符合标准正态分布,即均值为0,标准差为1,转化函数为:

  1. x
  2. n
  3. e
  4. w
  5. =
  6. x
  7. μ
  8. σ
  9. x_ {new} = \frac {x-\mu }{\sigma }
  10. xnew​=σx−μ​

其中

  1. μ
  2. \mu
  3. μ是样本数据的均值(mean),
  4. σ
  5. \sigma
  6. σ是样本数据的标准差(std)。此外,标准化后的数据**保持异常值中的有用信息**,使得算法对异常值不太敏感,这一点归一化就无法保证。
  1. if method =="z-score":
  2. train_data = stats.zscore(train_data, axis=None)
  3. eval_data = stats.zscore(eval_data, axis=None)
  4. test_data = stats.zscore(test_data, axis=None)

最值归一化和均值方差归一化的区别
最值归一化缩放仅仅跟最大、最小值的差别有关
均值归一化的缩放和每个点都有关系,通过方差体现出来。与归一化
对比,标准化中所有数据点都有贡献(通过均值和标准差造成影响)
归一化后,不同维度之间的特征在数值上有一定比较性,加速模型收敛,可以大大提高分类器的准确性、数据集批次读入
在这里插入图片描述

4、数据集分批次读入
  1. mini_batches =[training_data[k:k+batch_size]for k inrange(0, n,batch_size)for iter_id, mini_batch inenumerate(mini_batches):
  2. x = mini_batch[:,:-1]
  3. y = mini_batch[:,-1:]
5、数据集乱序分成批次
  1. np.random.shuffle(training_data)

3.2 模型设计

构建前向网络结构(假设空间)

  1. def__init__(self, num_of_weights):#为了保持程序每次运行结果的一致性,设置固定的随机数种子
  2. np.random.seed(2023)
  3. self.w = np.random.normal(0,0.01,(13,1))#使用正态分布随机初始化w
  4. self.b =0#前向计算defforward(self, x):return np.dot(x, self.w)+ self.b

3.3 模型配置

在 Network 类下面添加损失函数

  1. # 计算损失函数defloss(self, z, y):
  2. error = z - y
  3. num = error.shape[1]
  4. cost =(1/num)*np.sum(np.dot(error,error.T))return cost

3.4 模型训练

循环调用“前向计算+损失函数+计算梯度+反向传播” 更新参数(优化算法)在这里插入图片描述

通过构建的前馈神经网络完成了计算预测值和损失函数
接下来就是如何根据计算出来的损失函数,通过反馈(反向传播和梯度下降)去将神经网络的参数优化到一个最优状态,即机器学习第三个要素—优化算法寻解。
如何去计算和优化参数

  1. w
  2. w
  3. w
  4. b
  5. b
  6. b 的数值,这个过程也称为**模型训练**。

模型训练的目标是让定义的损失函数尽可能的小,即根据样本数据,找到一组参数(

  1. w
  2. w
  3. w,
  4. b
  5. b
  6. b)的值,使得
  7. L
  8. o
  9. s
  10. s
  11. Loss
  12. Loss取最小值。
  1. #反向传播更新权重参数defupdate(self, gradient_w, gradient_b, lr):
  2. self.w = self.w - lr*gradient_w
  3. self.b = self.b - lr*gradient_b
  4. deftest_or_eval(self,eval_data,batch_size):
  5. n=len(eval_data)
  6. losses =[]
  7. mini_batches =[eval_data[k:k+batch_size]for k inrange(0,n,batch_size)]for iter_id, mini_batch inenumerate(mini_batches):
  8. x = mini_batch[:,:-1]
  9. y = mini_batch[:,-1:]
  10. z=self.forward(x)
  11. loss = self.loss(z, y )
  12. losses.append(loss)return np.mean(losses)#训练数据集deftrain(self, training_data, eval_data, num_epochs, batch_size,lr=0.01):
  13. n =len(training_data)
  14. losses =[]
  15. eval_losses =[]for epoch_id inrange(num_epochs):# 在每轮迭代开始之前,将训练数据的顺序随机打乱# 然后再按每次取 batch_size 条数据的方式取出
  16. np.random.shuffle(training_data)# 将训练数据进行拆分,每个 mini_batch 包含 batch_size 条的数据
  17. mini_batches =[training_data[k:k+batch_size]for k inrange(0, n,batch_size)]for iter_id, mini_batch inenumerate(mini_batches):
  18. x = mini_batch[:,:-1]
  19. y = mini_batch[:,-1:]
  20. a = self.forward(x)
  21. loss = self.loss(a, y)
  22. eval_loss = self.test_or_eval(eval_data,batch_size=batch_size)
  23. gradient_w, gradient_b = self.gradient(x, y)
  24. self.update(gradient_w, gradient_b, lr)
  25. losses.append(loss)
  26. eval_losses.append(eval_loss)print("Epoch: %d train_loss= %f,eval_loss= %f"%(epoch_id,loss,eval_loss))return losses,eval_losses

训练结果:在这里插入图片描述

3.5 模型保存和测试

模型的初始训练结果:
在这里插入图片描述

计算测试集的损失:

  1. test_loss = net.test_or_eval(test_data,batch_size=10)
  2. test_loss

结果为:
![[Pasted image 20231129171042.png]]

四、模型参数调整

1、对epoch的调整

epoch训练时间验证集loss200.031250.00186500.0781250.00131000.1406250.00067732000.281250.000424
在这里插入图片描述
在这里插入图片描述

epoch 的数量会影响模型中权重参数的更新,随着 epoch 的增加,模型会逐渐从欠拟合走向过拟合。而我们要的是一个合适的模型,因此就必须选取一个合适的 epoch 更新出来的参数作为我们模型的最终参数(所以在训练模型时可以先将 epoch 设的稍大些,以便选取收敛最合适的时刻,使得模型的拟合效果最优)
根据实验结果可知,随着epoch的增大验证集的loss逐渐减小。

2、对归一化方法的调整

归一化方法训练时间验证集lossz-score0.06250.0013max-min0.212230.03698
在这里插入图片描述

对于归一化方法,本实验采取了两种归一化方法,左图为min_max归一化,右图为z-score归一化,在其他参数不变的情况下,通过改变归一化方法,可以看出,z-score的收敛速度更快,收敛的效果更好,得到的损失值明显减小。

3、对是否打乱数据的调整

在这里插入图片描述

在其他超参数不变的情况下,对“是否打乱数据进行”对照,左图未打乱的数据,右图为未打乱训练。可以明显看出,打乱后的数据收敛效果更好,切收敛速度更快,而未打乱的训练损失,呈现明显的规律性,波动性也比打乱后的打,这样训练的结果可能会导致过拟合,模型的泛化能力差。

4、对学习率的调整

学习率训练时间验证集loss0.010.0781250.001300360.050.06250.000360270.10.06250.00020480.20.078125未收敛
在这里插入图片描述
在这里插入图片描述

学习率设置太大会造成网络不能收敛,在最优值附近徘徊,也就是说直接跳过最低的地方跳到对称轴另一边,从而忽视了找到最优值的位置
如果学习率设置太小,网络收敛非常缓慢,会增大找到最优值的时间,也就是说从山坡上像蜗牛一样慢慢地爬下去。虽然设置非常小的学习率是可以到达,但是这很可能会进入局部极值点就收敛,没有真正找到的最优解。
可以使用学习率衰减机制
在训练过程中,一般根据训练轮数设置动态变化的学习率。
刚开始训练时:学习率以设置为0.01 ~ 0.001 。
一定轮数过后:逐渐减缓。
接近训练结束:学习速率的衰减应该在100倍以上

指数衰减方式:decayed_lr =lr0*(decay_rate^(global_steps/decay_steps)
参数解释:
decayed_lr:衰减后的学习率,也就是当前训练不使用的真实学习率
lr0: 初始学习率
decay_rate: 衰减率,每次衰减的比例
global_steps:当前训练步数
decay_steps:衰减步数,每隔多少步衰减一次。

5、对batch_size大小的调整

batch_size训练时间验证集loss50.7656250.02108100.3906250.02504500.0781250.00130031000.0468750.000067729
在这里插入图片描述
在这里插入图片描述

batch_size是一次训练所选取的样本数,它的大小会影响模型的优化程度和速度。理论上来说,batch_size 越大,模型参数的训练速度越快。梯度在计算时用的是一次迭代的数据,即 batch_size 大小的数据,为了使得梯度下降的方向更加精准,就需要合适的 batch_size。
在每个迭代中,模型会处理 Batch Size 个样本并计算其损失,然后使用反向传播算法来更新模型的参数。因此,一个 Epoch 包含了多个迭代,每个迭代包含了 Batch Size 个样本的处理和参数更新。
需要注意的是,在实际训练中,可能需要在数据集的最后一个 Batch 中进行填充,以确保每个 Batch 都有相同数量的样本。填充操作会导致最后一个 Batch 的样本数不足 Batch Size,因此在计算迭代次数时,需要将其考虑在内。

五、实验收获

1 标准化方法选择

对于z-score:数据像正太分布时,使用zscore效果最好,收敛速度更快,z-score会改变原有数据的分布结构,不适合用于对稀疏数据
对于min-max:在本实验中的收敛速度和效果不如z-score,最值归一化缩放仅仅跟最大、最小值的差别有关,将样本数据集映射到[0,1]区间里

2 打乱mini-batch

模型和人有相似的地方,就是对最后看到的样本有更深的印象。即越接近最后的几个批次数据对模型参数的影响越大,通过打乱数据,使用随机抽取的方式,预防训练过拟合,得到更低的损失值。

3 batch_size的选择

batch_size 越大,模型参数的训练速度越快,loss的收敛效果更强。

4 学习率的选择

学习率的过大和过小都会对模型产生影响,因此要不断尝试,找到最优的学习率

通过此次学习,让我进一步了解了深度学习内部的网络结构和工作原理,使得我对模型的认知更加清晰,了解了网络内部的算法,我可以根据自己的想法对模型参数进行调整,得到最优的结果,此次学习也加强了我对深度学习的热爱。


本文转载自: https://blog.csdn.net/weixin_63669071/article/details/137357142
版权归原作者 error 10086. 所有, 如有侵权,请联系我们删除。

“【人工智能】保姆级波士顿房价预测”的评论:

还没有评论