摘要
贝叶斯深度神经网络(BNNs)训练方法已获得广泛关注并在多领域成功应用。尽管已有诸多研究探讨BNNs的后验集中特性,但现有成果多集中于稀疏或重尾先验模型。值得注意的是,实践中最常用的高斯先验BNNs至今缺乏理论支撑——其根源在于非稀疏有界参数深度神经网络(DNNs)近似理论的缺失。
本文提出非稀疏有界参数DNNs的新近似理论,并基于该理论证明:具有广义非稀疏先验的BNNs能在真实模型周围达到近似极小极大最优的后验集中速率。
核心贡献
- 理论突破:首次建立非稀疏有界参数DNNs的通用近似理论框架
- 应用扩展:将后验集中性分析拓展至包含高斯先验在内的广义先验分布
- 最优性证明:推导出BNNs后验分布的极小极大最优收敛速率
研究意义
该成果为实践中广泛采用的高斯先验BNNs提供了理论保障,同时为贝叶斯深度学习模型的先验选择与性能分析建立了新基准。