摘要
伯恩斯坦条件是保证机器学习快速率的关键假设。例如,在该条件下,具有先验π的Gibbs后验的过剩风险为O(dπ/n),而一般情况下为O(√dπ/n),其中n表示观察数量,dπ是依赖于先验π的复杂度参数。本文研究了元学习背景下的Gibbs后验,即从T个先前任务中学习先验π。主要结果表明,伯恩斯坦条件在元层面始终成立,无论其在观察层面是否有效。这意味着学习Gibbs先验π的额外成本(将减少跨任务的dπ项)为O(1/T),而非预期的O(1/√T)。研究进一步通过离散先验、高斯先验和高斯混合先验三种设置,展示了该结果如何改进标准速率。