0


【数据挖掘实战】——应用系统负载分析与容量预测(ARIMA模型)

在这里插入图片描述

项目地址:Datamining_project: 数据挖掘实战项目代码


一、背景和挖掘目标

** 1、问题背景**

应用系统是由服务器、数据库、中间件、存储设备等组成。它在日常运行时,会对底层软硬件造成负荷。其中任何一种资源负载过大,都可能会引起应用系统性能下降甚至瘫痪。及时了解当前应用系统的负载情况,以便提前预防,确保系统安全稳定运行。

  • 应用系统的负载率:通过对一段时间内软硬件性能的运行状况进行综合评分而获得。
  • 负载率趋势:通过系统的当前负载率与历史平均负载率进行比较。

应用系统的负载高或者负载趋势大的现象,代表系统目前处于高危工作环境中。如果系统管理员不及时进行相应的处理,系统很容易出现故障。

本例重点分析磁盘容量,如果应用系统出现存储容量耗尽的情况,会导致应用系统负载率过高,最终引发故障。

2、传统方法的不足

系统负载分析的传统方法:通过监控采集到的性能数据以及所发出的告警事件,人为进行判断系统的负载情况。此方法虽然能够判断系统故障以及磁盘的容量情况,但是存在一些缺陷和不足:

  • 磁盘容量的情况没有提供预测的功能。只有当容量将要被耗尽时,会有告警提示。如果是告警服务器的磁盘容量被耗尽,此种情况下,系统即使出现故障,也不会有告警提示。
  • 不能提前知道系统负载的程度,只有当系统故障时,通过接受告警才得知。并且当系统真正故障的时,告警的发出大多数情况下会有一定的延迟。

2、原始数据

  • 性能属性说明:针对采集的性能信息,对每个属性进行相应说明。

  • 磁盘数据:包含应用系统、磁盘基本信息等。

3、挖掘目标

  • 针对历史磁盘数据,采用数据挖掘的方法,预测应用系统服务器磁盘已使用空间大小;
  • 根据用户需求设置不同的预警等级,将预测值与容量值进行比较,对其结果进行预警判断,为系统管理员提供定制化的预警提示;

二、分析方法与过程

1、初步分析

  • 应用系统出现故障通常不是突然瘫痪造成的(除非对服务器直接断电),而是一个渐变的过程。例如系统长时间运行,数据会持续写入存储,存储空间逐渐变少,最终磁盘被写满而导致系统故障。
  • 在不考虑人为因素的影响时,存储空间随时间变化存在很强的关联性,且历史数据对未来的发展存在一定的影响,故可采用时间序列分析法对磁盘已使用空间进行预测分析。

2、总体流程

第一步:数据抽取

磁盘使用情况的数据都存放在性能数据中,而监控采集的性能数据中存在大量的其他属性数据。故以属性的标识号(TARGET_ID)与采集指标的时间(COLLECTTIME)为条件,对性能数据进行抽取。

抽取10-01至11-16财务管理系统中某一台数据库服务器的磁盘的相关数据。

第二步:探索分析

对数据进行周期性分析,探索数据的平稳性。

C盘和D盘的使用的大小。

  1. # -*- coding:utf-8 -*-
  2. import pandas as pd
  3. import matplotlib.pyplot as plt
  4. data = pd.read_excel('data/discdata.xls')
  5. str1 = 'C:\\'
  6. str2 = 'D:\\'
  7. dataC = data[(data['DESCRIPTION'] == '磁盘已使用大小') & (data['ENTITY'] == str1)]
  8. dataD = data[(data['DESCRIPTION'] == '磁盘已使用大小') & (data['ENTITY'] == str2)]
  9. dataC.plot(y='VALUE')
  10. dataD.plot(y='VALUE')
  11. plt.show()

第三步:数据的预处理

数据清洗:实际业务中,监控系统会每天定时对磁盘的信息进行收集,但是磁盘容量属性一般情况下都是一个定值(不考虑中途扩容的情况),因此磁盘原始数据中会存在磁盘容量的重复数据。

  • 剔除磁盘容量的重复数据。
  • 将所有服务器的磁盘容量作为一个固定值,方便模型预警时需要。

属性构造:因每台服务器的磁盘信息可以通过表中NAME,TARGET_ID,ENTITY三个属性进行区分,且每台服务器的上述三个属性值是不变的,所以可以将三个属性的值进行合并。 (实质是将行转换成列)。

  1. # -*-coding: utf-8-*-
  2. import pandas as pd
  3. def attr_trans(x):
  4. result = pd.Series(index=['SYS_NAME', 'CWXT_DB:184:C:\\', 'CWXT_DB:184:D:\\', 'COLLECTTIME'])
  5. result['SYS_NAME'] = x['SYS_NAME'].iloc[0]
  6. result['COLLECTTIME'] = x['COLLECTTIME'].iloc[0]
  7. result['CWXT_DB:184:C:\\'] = x['VALUE'].iloc[0]
  8. result['CWXT_DB:184:D:\\'] = x['VALUE'].iloc[1]
  9. return result
  10. discfile = 'data/discdata.xls'
  11. transformeddata = 'data/discdata_processed.xls'
  12. data = pd.read_excel(discfile)
  13. data = data[data['TARGET_ID'] == 184].copy()
  14. # 按时间分组
  15. data_group = data.groupby('COLLECTTIME')
  16. data_processed = data_group.apply(attr_trans)
  17. data_processed.to_excel(transformeddata, index=False)

3、构造容量预测模型

  • 平稳性检验:为了确定原始数据序列中没有随机趋势或趋势,需要对数据进行平稳性检验,否则将会产生“伪回归”的现象。方法:单位跟检验或者观察时序图。
  • 白噪声检验:为了验证序列中有用的信息是否已被提取完毕,需要对序列进行白噪声检验。如果序列检验为白噪声序列,就说明序列中有用的信息已经被提取完毕了,剩下的全是随机扰动,无法进行预测和使用。方法:一般采用LB统计量检验方法。
  • 模型识别:通过AIC、BIC信息准则或者观测自相关图和偏自相关图确定P、Q的参数,识别其模型属于AR、MA和ARMA中的哪一种模型。
  • 参数估计:估计模型的其他参数。可以采用极大似然估计、条件最小二乘法确定。
  • 模型检验:检测模型残差序列是否属于白噪声序列。

  1. # -*- coding:utf-8 -*-
  2. import pandas as pd
  3. def stationarityTest():
  4. '''
  5. 平稳性检验
  6. :return:
  7. '''
  8. discfile = 'data/discdata_processed.xls'
  9. predictnum = 5
  10. data = pd.read_excel(discfile)
  11. data = data.iloc[: len(data) - predictnum]
  12. # 平稳性检验
  13. from statsmodels.tsa.stattools import adfuller as ADF
  14. diff = 0
  15. adf = ADF(data['CWXT_DB:184:D:\\'])
  16. while adf[1] > 0.05:
  17. diff = diff + 1
  18. adf = ADF(data['CWXT_DB:184:D:\\'].diff(diff).dropna())
  19. print(u'原始序列经过%s阶差分后归于平稳,p值为%s' % (diff, adf[1]))
  20. def whitenoiseTest():
  21. '''
  22. 白噪声检验
  23. :return:
  24. '''
  25. discfile = 'data/discdata_processed.xls'
  26. data = pd.read_excel(discfile)
  27. data = data.iloc[: len(data) - 5]
  28. # 白噪声检验
  29. from statsmodels.stats.diagnostic import acorr_ljungbox
  30. [[lb], [p]] = acorr_ljungbox(data['CWXT_DB:184:D:\\'], lags=1)
  31. if p < 0.05:
  32. print(u'原始序列为非白噪声序列,对应的p值为:%s' % p)
  33. else:
  34. print(u'原始该序列为白噪声序列,对应的p值为:%s' % p)
  35. [[lb], [p]] = acorr_ljungbox(data['CWXT_DB:184:D:\\'].diff().dropna(), lags=1)
  36. if p < 0.05:
  37. print(u'一阶差分序列为非白噪声序列,对应的p值为:%s' % p)
  38. else:
  39. print(u'一阶差分该序列为白噪声序列,对应的p值为:%s' % p)
  40. def findOptimalpq():
  41. '''
  42. 得到模型参数
  43. :return:
  44. '''
  45. discfile = 'data/discdata_processed.xls'
  46. data = pd.read_excel(discfile, index_col='COLLECTTIME')
  47. data = data.iloc[: len(data) - 5]
  48. xdata = data['CWXT_DB:184:D:\\']
  49. from statsmodels.tsa.arima_model import ARIMA
  50. # 定阶
  51. # 一般阶数不超过length/10
  52. pmax = int(len(xdata) / 10)
  53. qmax = int(len(xdata) / 10)
  54. # bic矩阵
  55. bic_matrix = []
  56. for p in range(pmax + 1):
  57. tmp = []
  58. for q in range(qmax + 1):
  59. try:
  60. tmp.append(ARIMA(xdata, (p, 1, q)).fit().bic)
  61. except:
  62. tmp.append(None)
  63. bic_matrix.append(tmp)
  64. bic_matrix = pd.DataFrame(bic_matrix)
  65. # 先用stack展平,然后用idxmin找出最小值位置。
  66. p, q = bic_matrix.stack().astype('float64').idxmin()
  67. print(u'BIC最小的p值和q值为:%s、%s' % (p, q))
  68. def arimaModelCheck():
  69. '''
  70. 模型检验
  71. :return:
  72. '''
  73. discfile = 'data/discdata_processed.xls'
  74. # 残差延迟个数
  75. lagnum = 12
  76. data = pd.read_excel(discfile, index_col='COLLECTTIME')
  77. data = data.iloc[: len(data) - 5]
  78. xdata = data['CWXT_DB:184:D:\\']
  79. # 建立ARIMA(0,1,1)模型
  80. from statsmodels.tsa.arima_model import ARIMA
  81. # 建立并训练模型
  82. arima = ARIMA(xdata, (0, 1, 1)).fit()
  83. # 预测
  84. xdata_pred = arima.predict(typ='levels')
  85. # 计算残差
  86. pred_error = (xdata_pred - xdata).dropna()
  87. from statsmodels.stats.diagnostic import acorr_ljungbox
  88. # 白噪声检验
  89. lb, p = acorr_ljungbox(pred_error, lags=lagnum)
  90. # p值小于0.05,认为是非白噪声。
  91. h = (p < 0.05).sum()
  92. if h > 0:
  93. print(u'模型ARIMA(0,1,1)不符合白噪声检验')
  94. else:
  95. print(u'模型ARIMA(0,1,1)符合白噪声检验')
  96. def calErrors():
  97. '''
  98. 误差计算
  99. :return:
  100. '''
  101. # 参数初始化
  102. file = 'data/predictdata.xls'
  103. data = pd.read_excel(file)
  104. # 计算误差
  105. abs_ = (data[u'预测值'] - data[u'实际值']).abs()
  106. mae_ = abs_.mean() # mae
  107. rmse_ = ((abs_ ** 2).mean()) ** 0.5
  108. mape_ = (abs_ / data[u'实际值']).mean()
  109. print(u'平均绝对误差为:%0.4f,\n均方根误差为:%0.4f,\n平均绝对百分误差为:%0.6f。' % (mae_, rmse_, mape_))
  110. stationarityTest()
  111. whitenoiseTest()
  112. findOptimalpq()
  113. arimaModelCheck()
  114. calErrors()

模型预测:应用模型进行预测,获取未来5天的预测值。为了方便比较,将单位换算成GB。

模型评价:

采用三个衡量模型预测精度的统计量指标:平均绝对误差、均方根误差、平均绝对百分误差,从不同侧面反映了算法的预测精度。

模型应用:

  • 计算预测使用率:根据模型预测得到的值,计算预测使用率。
  • 设定预警等级:根据业务应用一般设置的阈值,也可以根据管理员要求进行相应的调整。
  • 发布预警信息

三、总结和思考

  • 监控不仅能够获取软硬件的性能数据,同时也能检测到软硬件的日志事件,并通过告警的方式提示用户。因此管理员在维护系统的过程中,特别关注应用系统类别的告警。一旦系统发生故障,则会影响整个公司的运作。但是在监控收集性能以及事件的过程中,会存在各类型告警误告情况。(注:应用系统发生误告时系统实际处于正常阶段)
  • 根据历史每天的各种类型的告警数,通过相关性进行检验判断哪些类型告警与应用系统真正故障有关。通过相关类型的告警,预测明后两天的告警数。针对历史的告警数与应用系统的关系,判断系统未来是否发生故障。
  • 可通过时序算法预测未来相关类型的告警数,然后采用分类预测算法对预测值进行判断,判断系统未来是否发生故障。

本文转载自: https://blog.csdn.net/lxwssjszsdnr_/article/details/129231135
版权归原作者 Lingxw_w 所有, 如有侵权,请联系我们删除。

“【数据挖掘实战】——应用系统负载分析与容量预测(ARIMA模型)”的评论:

还没有评论