bootstrap法验证协整关系步骤

bootstrap法在协整检验中的作用是通过重抽样技术提高检验结果的稳健性,尤其在小样本或传统方法假设不满足时替代正态性假设。其基本步骤包括:1. 估计原始模型并获取残差;2. 对残差进行中心化和bootstrap重抽样;3. 利用bootstrap残差重构因变量并重新回归;4. 计算adf统计量并构建经验分布;5. 比较原始adf值与bootstrap分布判断协整关系。实际操作中需注意bootstrap次数、模型设定一致性、趋势项处理及软件实现方式。适合使用bootstrap的情况包括样本量较小、残差异方差或非正态、传统检验结果接近临界值以及需要更稳健p值的情形。

验证协整关系时,如果样本量较小或者传统方法(如Engle-Granger或Johansen检验)的假设条件不满足,可以考虑使用Bootstrap方法来提高检验结果的稳健性。这种方法通过反复抽样构造经验分布,从而更准确地判断协整关系是否存在。


什么是Bootstrap法在协整检验中的作用?

简单来说,Bootstrap是一种重抽样技术,用来估计统计量的分布。在协整分析中,它主要用于替代传统检验中对残差正态性或其他分布假设的依赖。尤其是在小样本情况下,标准检验可能不太可靠,这时候用Bootstrap模拟出的临界值会更贴近实际情况。


协整Bootstrap检验的基本步骤

以下是基于Engle-Granger两步法结合Bootstrap进行协整检验的大致流程:

  1. 估计原始模型并获取残差
    先用OLS回归两个变量之间的长期关系,比如 $ y_t = alpha + beta x_t + epsilon_t $,然后保存残差 $ hat{epsilon}_t $。

  2. 对残差进行Bootstrap重抽样
    通常采用“残差Bootstrap”方法:将原始残差中心化(减去均值),然后有放回地抽取与原样本相同长度的残差序列。

  3. 生成Bootstrap样本路径
    利用抽样后的残差重构因变量 $ y_t^ $,即 $ y_t^ = hat{alpha} + hat{beta}x_t + epsilon_t^ $,再对新生成的 $ y_t^ $ 和 $ x_t $ 再次做OLS回归,得到新的残差。

  4. 计算Bootstrap检验统计量
    对每一轮Bootstrap样本,计算ADF统计量(用于检验残差是否平稳),记录下来形成经验分布。

  5. 比较原始统计量与Bootstrap分布
    将原始数据得到的ADF值与Bootstrap重复多次(例如1000次)所得的统计量分布进行比较,判断其是否落在拒绝域内。


实际操作中需要注意的关键点

  • Bootstrap次数一般设为1000或以上,太少会影响分布的稳定性。
  • 保持原模型设定不变,比如趋势项、截距项等,在每次Bootstrap中都应保持一致。
  • 如果变量本身是趋势平稳的,建议在回归中加入时间趋势项。
  • Bootstrap不能解决模型误设问题,比如遗漏变量或非线性关系。
  • 某些软件(如R、Stata、python)已经内置了部分Bootstrap功能,但需要手动实现协整过程。

举个例子,在Python中可以用statsmodels库做回归和ADF检验,再自行编写循环完成重抽样;而r语言

urca

包配合自编函数也能实现类似效果。


哪些情况更适合用Bootstrap协整检验?

  • 样本量较小(比如少于100期)
  • 残差可能存在异方差或非正态
  • 传统检验结果接近临界值,不确定是否拒绝原假设
  • 需要报告更稳健的p值或临界值

这种情况下,Bootstrap可以帮助你更准确地评估协整关系的存在性。


基本上就这些。虽然步骤看起来有点多,但只要理解每一步的目的,实际操作起来并不复杂,只是容易忽略一些细节,比如残差处理方式或者模型设定一致性。

© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享