0


基于网格搜索与分段回归的时间序列变化点检测方法

传统统计方法在时间序列分析中既简洁又有力,但面对大规模时间序列集合时,扩展性往往不尽如人意。现实中的趋势变化往往微弱、带有噪声、数量也不止一个,靠肉眼判断既不可靠也不现实。一旦需要处理数十乃至数百条时间序列,人工识别就更不可行了。

Figure 1: Identify the optimal number of knots and their positions using grid search

解决思路是用程序来定位变化点。估计趋势变化点的手段有很多,本文聚焦于网格搜索策略与分段回归的结合,自动确定变化点的数量和位置。

完整代码有 R 和 Python 两个版本,Streamlit 应用也可在线体验。

使用网格搜索寻找变化点

网格搜索是一种系统化的优化技术,原理并不复杂:在预定义的离散候选参数集上逐一评估模型,按照指定准则挑出表现最好的那组配置。

在分段回归中,待搜索的参数就是节点(knot)的数量和位置,每个节点对应一个候选变化点。整体流程如下:

  • 定义参数
  • 定义代价函数
  • 对每组网格组合拟合分段回归
  • 对结果评分
  • 选择达到最优结果的网格组合

为减少过拟合、增强稳定性,还需要设置节点之间的最小距离约束,避免变化点在时间轴上挤得太近。

定义代价函数

比较不同变化点数量的模型之前,需要有一套统一的评价标准。代价函数(也叫损失函数或目标函数)就是干这个的:它接收一组模型参数,输出一个标量,反映模型误差或拟合质量。机器学习和统计建模中的训练与模型选择,本质上都是在寻找令代价函数取极值的参数组合。

回归问题中,代价函数度量的是预测值与观测值之间的偏差。常见选择包括:均方误差(MSE)度量平方残差的均值;平均绝对误差(MAE)度量绝对残差的均值;负对数似然(NLL)度量观测数据在给定模型下出现的概率。

这些指标只关注拟合优度,不考虑模型复杂度。变化点越多的分段回归模型几乎总能把误差压得更低,哪怕它只是在拟合噪声。

应对方法是引入惩罚代价函数,在拟合质量和模型复杂度之间取得平衡。AIC(赤池信息准则)和 BIC(贝叶斯信息准则)是两个典型代表,均以负对数似然为基础,再加上一个与估计参数数量相关的惩罚项。

AIC:

AIC=-2log(L) +2k

BIC:

BIC=-2log(L)+klog(n)*

其中:

  • L = 最大化似然值
  • k = 估计参数的数量
  • n = 观测值的数量

    Figure 2: Example for finding the optimal number of knots using the BIC score

惩罚项的存在抑制了不必要的复杂度,有助于在网格搜索中筛选出真正有意义的变化点数目。BIC 的惩罚力度比 AIC 更重,选出的变化点数量往往更少——也就更保守。

网格搜索工作流程

基础概念铺设完毕,下面定义网格搜索的具体流程。一个典型的变化点检测网格搜索包含四个环节:

  • 准备数据并定义搜索空间
  • 为给定的节点配置拟合分段回归模型
  • 使用惩罚代价函数评估每个配置
  • 选择最优的节点数量及其位置

函数输入是时间序列与搜索空间参数,输出是最优节点集合。

Figure 3: A general grid search function workflow

网格搜索胜在直白、易于实现,但计算开销会随候选变化点数量的增长而快速膨胀。引入搜索空间约束可以缓解这个问题:减少待评估的配置数,同时也起到防止过拟合的作用。

具体的约束手段有三条:一是排除序列头尾一定比例的观测值,保证每个分段都有足够数据支撑趋势估计;二是强制每个分段包含不少于某个阈值的观测值,稳定斜率估计,避免模型在短而嘈杂的片段上过拟合;三是限定节点数量的上限,控制搜索范围。

设置这些参数时需要综合考虑观测值数量、序列频率以及业务逻辑。

注意,这里用不含节点的简单趋势模型作为网格搜索结果的基准。

网格搜索实现

回到前一篇教程的示例——加利福尼亚州天然气消费者数量,看一下网格搜索函数在 R 中的实现。Python 版本可在对应 notebook 中获取。

加载所需的库:

 library(dplyr)  
 library(tsibble)  
 library(plotly)

引入一组辅助函数,其中包括网格搜索函数 piecewise_regression:

 fun_path <- "https://raw.githubusercontent.com/RamiKrispin/the-forecaster/refs/heads/main/functions.R"  
   
 source(fun_path)

加载序列并整理格式:

 path <- "https://raw.githubusercontent.com/RamiKrispin/the-forecaster/refs/heads/main/data/ca_natural_gas_consumers.csv"  

ts <- read.csv(path) |>  
    arrange(index) |>  
    filter(index > 1986) |>  
    as_tsibble(index = "index")  

 ts |> head()

序列为年度数据,index 列是时间戳,y 列是数值:

 # A tsibble: 6 x 2 [1Y]  
  index       y  
  <int>   <int>  
1  1987 7904858  
2  1988 8113034  
3  1989 8313776  
4  1990 8497848  
5  1991 8634774  
 6  1992 8680613

绘制序列:

 p <- plot_ly(data = ts) |>  
  add_lines(x = ~ index,  
            y = ~ y, name = "Actual") |>  
            layout(  
        title = "Number of Natural Gas Consumers in California",  
        yaxis = list(title = "Number of Consumers"),  
        xaxis = list(title = "Source: US energy information administration"),  
        legend = list(x = legend_x, y = legend_y)  
    )  

 p


Figure 4: Yearly number of natural gas consumers in California. The series is trending up without seasonality patterns

用 piecewise_regression 函数识别最优节点数量及位置:

 grid <- piecewise_regression(  
    data = ts,  
    time_col = "index",  
    value_col = "y",  
    max_knots = 4,  
    min_segment_length = 8,  
    edge_buffer = 0.05,  
    grid_resolution = 20  
 )

搜索空间由以下参数定义:

  • max_knots - 最大节点数量
  • min_segment_length - 两个节点之间的最小观测值数量
  • edge_buffer - 从序列头尾排除的观测值比例
  • grid_resolution - 每个节点数量对应的最大搜索组合数

这里把 max_knots 设为 4,搜索空间中节点数量的范围就是 0–4。函数会根据约束条件生成候选配置,并裁剪掉不满足条件的组合。

运行结果如下:

 Testing 0 knot(s)...  
  Best BIC: 919.28 | RSS: 1.006639e+12 | Tested 1 configurations  
Testing 1 knot(s)...  
  Best BIC: 858.05 | RSS: 182625404855 | Tested 18 configurations  
Testing 2 knot(s)...  
  Best BIC: 844.26 | RSS: 115452860424 | Tested 25 configurations  
Testing 3 knot(s)...  
  Best BIC: 852.94 | RSS: 131838198802 | Tested 5 configurations  
Testing 4 knot(s)...  

Optimal model:  2 knot(s) with BIC = 844.26   
Warning message:  
In generate_candidates(k, min_idx, max_idx, min_segment_length) :  
   Cannot fit 4 knots with min segment length 8

输出按节点数量分组列出了测试过的模型数,最终确定最优节点数为 2。函数还抛出了一条警告:受搜索空间约束限制,观测值不足以容纳 4 个节点,因此跳过了对应的拟合。这一行为符合预期——说明约束条件正在起作用。

下面的动画展示了搜索空间中所有配置的拟合过程:

Figure 5: Animation of the grid search process

函数输出中包含搜索过程和最优结果的详细信息。最优节点数:

 grid$optimal_knots  
 [1] 2

节点位置:

 grid$knot_dates  
 [1] 1999 2007

最后,用

plot_knots

函数加上注释,把最优节点叠加到原始序列上进行可视化:

Figure 6: The optimal number of knots and their positions based on the grid search results

局限性

网格搜索配合分段回归,对于识别趋势变化点的数量和位置是一种切实可行的方案。它最适合的场景是相对"干净"的时间序列,主导信号就是底层趋势——本文的示例正是如此。

现实中的时间序列往往不这么纯粹。季节性、突发水平偏移、异常值都可能干扰甚至扭曲趋势成分。在这些效应存在的情况下,网格搜索可能定位到虚假的变化点,也可能遗漏真正有意义的趋势断裂。

一种可行的预处理策略是先做分解(如 STL),将趋势成分分离出来,再在提取到的趋势上执行网格搜索,而非直接在原始序列上操作。

对于结构复杂或噪声较大的序列,能够联合建模趋势与季节性的变化点检测方法可能更为适用。

总结

本文展示了如何将变化点检测转化为一个优化问题:通过网格搜索遍历候选节点配置,用惩罚似然准则(BIC)选出最优模型,配合分段回归完成趋势变化点的自动检测。

分段回归是建模趋势变化的可解释框架;网格搜索虽然朴素,但在估计变化点位置上行之有效;BIC 等惩罚准则在拟合优度与模型复杂度之间做出了取舍,抑制了过拟合倾向;搜索空间约束——边缘缓冲区、最小分段长度、最大节点数——进一步稳定了模型并降低了计算开销。

网格搜索在计算效率上确实算不上最优解,但它的透明度是一大优势,作为基线方法和实际工程中的可用方案都没有问题。面对更复杂的场景,可以在此框架基础上引入高级优化策略或贝叶斯变化点检测方法。下一篇教程将讨论如何把这套方法应用到更复杂的实际场景中。

本文代码:

https://github.com/RamiKrispin/the-forecaster/

by Rami Krispin

“基于网格搜索与分段回归的时间序列变化点检测方法”的评论:

还没有评论