0


数学建模系列-预测模型(一)灰色预测模型

目前我们学习预测模型的第一类:灰色预测模型

1 灰色预测模型

** Gray Forecast Model 是通过少量的、不完全的**信息,建立数学模型并给出预测的一种预测方法。

  1. 目前常用的一些预测方法(如回归分析等),需要较大的样本。若样本较小,则会造成较大误差,使预测目标失效。
  2. 灰色预测模型**所需建模信息少**,运算方便,**建模精度高**,在各种预测领域都有着广泛的应用,是**处理小样本预测问题**的有效工具.

1.1 灰色系统的定义与特点

  1. **灰色系统**是黑箱概念的一种推广。我们把既含有已知信息又含有未知信息的系统称为灰色系统。
  2. 1)用**灰色数学处理**处理不确定量,使之量化
  3. 2)充分利用已知信息寻求系统的运动规律
  4. 3)灰色系统理论能处理贫信息系统

1.2 灰色预测模型优缺点

  1. **适用范围:**该模型使用的不是原始数据的序列, 而是**生成的数据序列**。 核心体系是** Grey Model**, 即对原始数据作累加生成(或其他处理生成) 得到**近似的指数规律**再进行建模的方法。

** 优点:在处理较少的特征值数据, 不需要数据的样本空间足够大, 就能解决历史数据少、 序列的完整性以及可靠性低的问题, 能将无规律的原始数据进行生成得到规律较强的生成序列**。

  1. ** 缺点:**只适用于**中短期的预测**, 只适合近似于**指数增长**的预测。需要构建**一阶常微分方程**来求解拟合函数的函数表达式。

1.3 灰色生成数列

  1. 关键在于如何选择合适的方式去挖掘和利用事物的内在规律。一切灰色序列都能通过**某种生成弱化其随机性,显现其规律**。数据生成的常用方式有**累加生成、累减生成和加权累加生成**。

(1)累加生成(AGO)

** ** 设原始数列为x_0=[x_0(1),x_0(2).....x_0(n)],则x_1(k)=x_0(1)+x_0(2)+......+x_0(n)为原始数列的1次累加生成数列。

  1. 称为x_0r次累加生成数列。

(2)累减生成(IAGO)

  1. 设原始数列为x_1=[x_1(1),x_1(2).....x_1(n)],则x_0(k)=x_1(1)+x_1(2)+......+x_1(n)是原始数列的1次累减生成数列。通过累加数列得到的数列可以通过累减生成还原成原始数列。

(3)加权邻值生成

  1. 设原始数列为x_1=[x_1(1),x_1(2).....x_1(n)],称任意一对相邻元素x_0(k-1),x_0(k)互为邻值。对于常数0<a<1,则

  1. 由此得到的数列称为邻值生成数,权a称为生成系数。当a=0.5时,则称数列为均值生成数。

1.4 灰色模型GM(1,1)实操步骤

1 数据检验

  1. 建模前需要对**数据进行检验**,首先计算**数列的级比**

  1. 如果所有的级比都落在**可容覆盖区间**内

  1. 则数列可以进行灰色预测,否则需要对数据进行适当的变换处理,如平移等。

以下为数据检验的matlab代码

  1. %数据检验
  2. function [G, params] = GM(A)
  3. % G为预测数据,Q为相对残差Q检验,C为方差比C检验
  4. % p为小误差概率p检验
  5. %建立符号变量a(发展系数)和b(灰作用量)
  6. % syms a b;
  7. % c = [a u]';
  8. n = length(A);
  9. %% 级比检验
  10. % 对原始数列 A 做累加得到数列 B
  11. B = cumsum(A);
  12. % 计算级比和光滑比
  13. sig = zeros(1,n);
  14. rho = zeros(1,n);
  15. for i = 2:n
  16. sig(i) = B(i)/B(i-1);
  17. rho(i) = A(i)/B(i-1);
  18. end
  19. if sum(sig(4:end) >=2 ) == 0 && sum(rho(5:end) >= 0.5) == 0
  20. disp('数据满足光滑条件和指数规律')
  21. else
  22. disp('数据不满足光滑条件和指数规律')
  23. end

2 构建灰色模型

  1. 定义x_1的灰导数为

  1. z_1(k)为数列x_1的邻值生成数列,即

  1. 于是定义GM(1,1)的微分方程模型为

  1. 用回归分析求得ab的估计值,于是相应的白化模型为

  1. 解为

  1. 于是得到预测值

** 实操:**

  1. k=123,,,n代入式子中得:

  1. 引入矩阵向量记号

  1. 于是GM(1,1)模型可表示为Y=Bu
  2. 那么现在的问题是求ab的问题,我们可以用一元线性回归,也就是最小二乘法求他们的估计值为:

以下是matlab代码:

  1. %% 数据预测
  2. % 对数列 B 做紧邻均值生成
  3. C = zeros(n,1);
  4. for i = 2:n
  5. C(i) = (B(i) + B(i - 1))/2;
  6. end
  7. C(1) = [];
  8. % 构造数据矩阵
  9. B = [-C,ones(n-1,1)];
  10. Y = A; Y(1) = [];
  11. % 使用最小二乘法计算参数 a(发展灰数)和b(内控制灰数)
  12. c = inv(B'*B)*B'*Y;
  13. a = c(1);
  14. u = c(2);
  15. % 预测后续数据
  16. F(1) = A(1);
  17. for i = 2:n+2 % 预测两年的数据
  18. F(i) = (A(1)-u/a)/exp(a*(i-1))+ u/a;
  19. end
  20. % 对数列 F 累减还原,得到预测出的数据
  21. G(1) = A(1);
  22. for i = 2:n+2
  23. G(i) = F(i) - F(i-1); %得到预测出来的数据
  24. end
  25. G = G';

3 检验预测值

  1. ** (一)残差检验:计算相对误差**

  1. 如果所有得相对误差都小于0.1,则认为达到较高的要求。小于0.2,则达到一般要求。
  2. (二)关联度检验
  3. (三)方差比C检验
  4. (四)小误差概率p检验

以下为matlab代码:

  1. %% 精度检验
  2. H = G(1:n);
  3. % 计算残差序列
  4. epsilon = A - H;
  5. % 法一:相对残差Q检验(MAPE
  6. % 计算相对残差
  7. delta = abs(epsilon./A);
  8. % 计算相对误差平均值Q
  9. Q = mean(delta);
  10. % 计算所对应的的绝对误差百分比
  11. MAPE = abs(sum(epsilon./A)/(n-1))*100;
  12. % 法二:关联度检验
  13. r = sum((min(min(abs(epsilon)))+0.5*max(max(abs(epsilon))))./(abs(epsilon)+0.5*max(max(abs(epsilon)))))/n;
  14. % 法三:方差比C检验
  15. C = std(epsilon, 1)/std(A, 1);
  16. % 法四:小误差概率P检验
  17. S1 = std(A, 1);
  18. tmp = find(abs(epsilon - mean(epsilon))< 0.6745 * S1);
  19. P = length(tmp)/n;
  20. params = [a,u,r,C,P,MAPE];
  21. end

4 灰色预测模型实例代码

原始数据:A=[71.1 72.4 72.4 72.1 71.4 72.0 71.6]'

  1. function [G, params] = GM(A)
  2. % G为预测数据,Q为相对残差Q检验,C为方差比C检验
  3. % p为小误差概率p检验
  4. %建立符号变量a(发展系数)和b(灰作用量)
  5. % syms a b;
  6. % c = [a u]';
  7. n = length(A);
  8. %% 级比检验
  9. % 对原始数列 A 做累加得到数列 B
  10. B = cumsum(A);
  11. % 计算级比和光滑比
  12. sig = zeros(1,n);
  13. rho = zeros(1,n);
  14. for i = 2:n
  15. sig(i) = B(i)/B(i-1);
  16. rho(i) = A(i)/B(i-1);
  17. end
  18. if sum(sig(4:end) >=2 ) == 0 && sum(rho(5:end) >= 0.5) == 0
  19. disp('数据满足光滑条件和指数规律')
  20. else
  21. disp('数据不满足光滑条件和指数规律')
  22. end
  23. %% 数据预测
  24. % 对数列 B 做紧邻均值生成
  25. C = zeros(n,1);
  26. for i = 2:n
  27. C(i) = (B(i) + B(i - 1))/2;
  28. end
  29. C(1) = [];
  30. % 构造数据矩阵
  31. B = [-C,ones(n-1,1)];
  32. Y = A; Y(1) = [];
  33. % 使用最小二乘法计算参数 a(发展灰数)和b(内控制灰数)
  34. c = inv(B'*B)*B'*Y;
  35. a = c(1);
  36. u = c(2);
  37. % 预测后续数据
  38. F(1) = A(1);
  39. for i = 2:n+2 % 预测两年的数据
  40. F(i) = (A(1)-u/a)/exp(a*(i-1))+ u/a;
  41. end
  42. % 对数列 F 累减还原,得到预测出的数据
  43. G(1) = A(1);
  44. for i = 2:n+2
  45. G(i) = F(i) - F(i-1); %得到预测出来的数据
  46. end
  47. G = G';
  48. %% 精度检验
  49. H = G(1:n);
  50. % 计算残差序列
  51. epsilon = A - H;
  52. % 法一:相对残差Q检验(MAPE
  53. % 计算相对残差
  54. delta = abs(epsilon./A);
  55. % 计算相对误差平均值Q
  56. Q = mean(delta);
  57. % 计算所对应的的绝对误差百分比
  58. MAPE = abs(sum(epsilon./A)/(n-1))*100;
  59. % 法二:关联度检验
  60. r = sum((min(min(abs(epsilon)))+0.5*max(max(abs(epsilon))))./(abs(epsilon)+0.5*max(max(abs(epsilon)))))/n;
  61. % 法三:方差比C检验
  62. C = std(epsilon, 1)/std(A, 1);
  63. % 法四:小误差概率P检验
  64. S1 = std(A, 1);
  65. tmp = find(abs(epsilon - mean(epsilon))< 0.6745 * S1);
  66. P = length(tmp)/n;
  67. params = [a,u,r,C,P,MAPE];
  68. end
标签: 人工智能 python

本文转载自: https://blog.csdn.net/vcvvcvx/article/details/128953595
版权归原作者 汽水啤酒花 所有, 如有侵权,请联系我们删除。

“数学建模系列-预测模型(一)灰色预测模型”的评论:

还没有评论