全连接贝叶斯神经网络权重广义先验的后验集中性研究

本研究提出非稀疏有界参数深度神经网络的新近似理论,证明具有广义非稀疏先验的贝叶斯神经网络可实现近似极小极大最优后验集中速率,填补了高斯先验理论空白。

摘要

贝叶斯深度神经网络(BNNs)训练方法已获得广泛关注并在多领域成功应用。尽管已有诸多研究探讨BNNs的后验集中特性,但现有成果多集中于稀疏或重尾先验模型。值得注意的是,实践中最常用的高斯先验BNNs至今缺乏理论支撑——其根源在于非稀疏有界参数深度神经网络(DNNs)近似理论的缺失。

本文提出非稀疏有界参数DNNs的新近似理论,并基于该理论证明:具有广义非稀疏先验的BNNs能在真实模型周围达到近似极小极大最优的后验集中速率。

核心贡献

  1. 理论突破:首次建立非稀疏有界参数DNNs的通用近似理论框架
  2. 应用扩展:将后验集中性分析拓展至包含高斯先验在内的广义先验分布
  3. 最优性证明:推导出BNNs后验分布的极小极大最优收敛速率

研究意义

该成果为实践中广泛采用的高斯先验BNNs提供了理论保障,同时为贝叶斯深度学习模型的先验选择与性能分析建立了新基准。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计