hi@zxh
_

贝叶斯神经网络

Aug 16, 2020 · 17 min · machine learning , deep learning , math , bayesian

TIP

Radford Neal: I don’t necessarily think that the Bayesian method is the best thing to do in all cases..

Geoff Hinton: Sorry Radford, my prior probability for you saying this is zero, so I couldn’t hear what you said.

关于贝叶斯估计

XX 的概率密度函数为 pθ(X)p_\theta(X),现在观测到了一组样本 (X1,X2,,Xn)=(x1,x2,,xn)(X_1, X_2, \dots, X_n) = (x_1, x_2, \dots, x_n),要估计参数 θ\theta

极大似然估计

极大似然估计(Maximum Likelihood Estimation,MLE),频率学派的思想。频率学派的观点是:模型参数 θ\theta 存在唯一真值,只是这个真值是未知的。如果当 θ=θ^MLE\theta = \hat{\theta}_{\text{MLE}} 时,事件 (X1,X2,,Xn)=(x1,x2,,xn)(X_1, X_2, \dots, X_n) = (x_1, x_2, \dots, x_n) 发生的可能性最大,那么就说 θ^MLE\hat{\theta}_{\text{MLE}}θ\theta 的极大似然估计。

θ^MLE=argmaxθpθ(x)=argmaxθi=1npθ(xi)=argmaxθlogi=1npθ(xi)=argmaxθi=1nlogpθ(xi)=argminθi=1nlogpθ(xi)\begin{aligned} \hat{\theta}_{\text{MLE}}&= \arg \max_\theta p_\theta(x) \\ &= \arg \max_\theta \prod_{i=1}^n p_\theta(x_i) \\ &= \arg \max_\theta \log \prod_{i=1}^n p_\theta(x_i) \\ &= \arg \max_\theta \sum_{i=1}^n \log p_\theta(x_i) \\ &= \arg \min_\theta - \sum_{i=1}^n \log p_\theta(x_i) \end{aligned}

也就是说最后需要优化的是 Negative Log Likelihood (NLL)。经常看到的用频率学派的方法求抛硬币概率的问题,本质上就是在优化 NLL:

抛硬币可以看做参数为 θ\theta 的 Bernoulli 分布:

pθ(xi)={θxi=11θxi=0=θxi(1θ)1xip_\theta(x_i) = \begin{cases} \theta &x_i = 1 \\ 1 - \theta &x_i = 0 \end{cases} = \theta^{x_i} (1 - \theta)^{1-x_i}

那么 NLL:

NLL=i=1nlogpθ(xi)=i=1nlogθxi(1θ)1xi\text{NLL} = - \sum_{i=1}^n \log p_\theta(x_i) = - \sum_{i=1}^n \log \theta^{x_i} (1 - \theta)^{1-x_i}

令导数为 0 来求极值:

NLL=i=1n(xiθ+(1xi)11θ)=0\text{NLL}' = - \sum_{i=1}^n \left (\frac{x_i}{\theta} + (1-x_i) \frac{-1}{1 - \theta} \right ) = 0 i=1nxiθni=1nxi1θ=0\rArr \frac{\sum_{i=1}^n x_i}{\theta} - \frac{n - \sum_{i=1}^n x_i}{1 - \theta} = 0 θ=i=1nxin\rArr \theta = \frac{\sum_{i=1}^n x_i}{n}

θ\theta 为正面的次数除以总共的抛硬币次数。

贝叶斯估计

贝叶斯估计(Bayesian Estimation),贝叶斯学派的思想。贝叶斯学派认为 θ\theta 也是随机的,和一般的随机变量没有本质区别,因此只能根据观测样本去估计参数 θ\theta 的分布。其基础是贝叶斯公式:

p(θx)=p(xθ)p(θ)p(x)p(\theta \mid x) = \frac{p(x \mid \theta)p(\theta)}{p(x)} p(x)=θp(xθ)p(θ)p(x) = \sum_\theta p(x \mid \theta)p(\theta) θ^BE=E[p(θx)]\hat{\theta}_{\text{BE}} = \mathbb{E}[p(\theta \mid x)]

其中:

  • p(θ)p(\theta)先验(prior),指在没有观测到任何数据时对 θ\theta 的预先判断,比如认为硬币大概率是均匀的,所以 θ\theta 的先验可以是最大值取在 0.5 处的 Beta 分布;
  • p(xθ)p(x \mid \theta)似然(likelihood),假设 θ\theta 已知后,观测数据应该是什么样子;
  • p(θx)p(\theta \mid x)后验(posterior),最终的参数分布;
  • p(x)p(x),样本的先验,一个常量(和要估计的参数无关)。

相当于贝叶斯估计是在 θ\theta 服从先验分布 p(θ)p(\theta) 的前提下,然后根据观测到的样本去校正先验分布,最终得到后验分布 p(θx)p(\theta \mid x),然后取后验分布的期望作为参数的估计值。

如果先验是均匀分布,则贝叶斯估计等价于极大似然,因为先验是均匀分布相当于对参数没有任何预判。

最大后验估计

贝叶斯估计估计的是 θ\theta 的后验分布,而最大后验估计(Maximum a Posteriori,MAP)考虑的是后验分布极大化时 θ\theta 的取值:

θ^MAP=argmaxθp(θx)=argminθlogp(θx)=argminθlogp(xθ)p(θ)p(x)=argminθlogp(xθ)logp(θ)+logp(x)=argminθlogp(xθ)logp(θ)\begin{aligned} \hat{\theta}_{\text{MAP}}&= \arg \max_\theta p(\theta \mid x) \\ &= \arg \min_\theta - \log p(\theta \mid x) \\ &= \arg \min_\theta - \log \frac{p(x \mid \theta)p(\theta)}{p(x)}\\ &= \arg \min_\theta - \log p(x \mid \theta) - \log p(\theta) + \log p(x)\\ &= \arg \min_\theta - \log p(x \mid \theta) - \log p(\theta) \end{aligned}

logp(xθ)- \log p(x \mid \theta) 就是 NLL,所以相比 MLE,MAP 就是在优化时多了一个先验项 p(θ)p(\theta)。在有的情况下,logp(θ)- \log p(\theta) 可以看做用 MLE 时结构化风险里的正则化项,比如当先验是一个高斯分布:

p(θ)=constant×eθ22σ2\\[2px] p(\theta) = \text{constant} \times e^{- \frac{\theta^2}{2 \sigma^2}}

constant 是一个参数无关的常数项,在上式中它相当于 12πσ\frac{1}{\sqrt{2 \pi} \sigma}。那么:

logp(θ)=constant+θ22σ2- \log p(\theta) = \text{constant} + \frac{\theta^2}{2 \sigma^2}

这时的 logp(θ)- \log p(\theta) 就相当于一个 L2 正则化项(倾向于取小值)。

而当先验是一个拉普拉斯分布(Laplace Distribution)时,logp(θ)- \log p(\theta) 相当于一个 L1 正则化(倾向于取 0 使权重稀疏)。

MAP 提供了一个直观的方法来设计复杂但可解释的正则化项,比如可以通过把混合高斯分布作为先验来得到更复杂的正则化项。

贝叶斯神经网络

这一节主要基于论文:

Weight Uncertainty in Neural Networks. Charles Blundell, et al. ICML 2015. [Paper]

在看这一节之前,或许先去看看概率图模型中的贝叶斯网络部分比较好。

优点:

神经网络模型

这是一个神经元:

neuron

一般的神经网络中,wwbb 都是确定的值。对于数据集 D={(x1,y1),,(xn,yn)}D = \{(x_1, y_1), \dots, (x_n, y_n)\},其学习可以视作是一个极大似然估计:

wMLE=argmaxwlogp(Dw)=argmaxwi=1nlogp(yixi,w)\begin{aligned} w_{\text{MLE}}&= \arg \max_w \log p(D \mid w) \\ &= \arg \max_w \sum_{i=1}^n \log p(y_i \mid x_i, w) \end{aligned}

有些时候我们对 ww 有一些偏好,于是如之前所说,引入先验(最大后验估计)可以引入正则化项:

wMAP=argmaxwlogp(wD)=argmaxwlogp(Dw)+logp(w)\begin{aligned} w_{\text{MAP}}&= \arg \max_w \log p(w \mid D) \\ &= \arg \max_w \log p(D \mid w) + \log p(w) \end{aligned}

气氛突然贝叶斯了起来

而在贝叶斯神经网络(Bayesian Neural Network,BNN)中,wwbb 由确定的值变为了分布,因此概率模型就变为了:

p(yx)=Ep(wD)[p(yx,w)]p(y \mid x) = \mathbb{E}_{p(w \mid D)} [p(y \mid x, w)]

那么存在两个问题:

  • 后验 p(wD)p(w \mid D) 是 intractable 的。由贝叶斯公式:

    p(wD)=p(Dw)p(w)p(D)p(w \mid D) = \frac{p(D \mid w)p(w)}{p(D)}

    而输入数据分布 p(D)p(D) 通常是是 intractable 的,因为这相当于要对所有可能的 ww 求和(或积分):

    p(D)=wp(Dw)p(w)p(D) = \sum_w p(D \mid w)p(w)
  • 期望 p(yx)p(y \mid x) 也不好求,因为这相当于要对每一个可能的 p(wD)p(w \mid D) 计算神经网络的预测值

朋友,搞不定的分布就上变分推断,乌拉!(不是

变分推断

对于第一个问题求后验 p(wD)p(w \mid D),可以用变分推断(variational inference)来解决。变分推断可以参考这里,其思想是用一个由参数 θ\theta 控制的分布 q(wθ)q(w \mid \theta) 来近似 p(wD)p(w \mid D),这两个分布之间的 KL 散度要尽可能小:

θ*=argminθKL[q(wθ)p(wD)]=argminθwq(wθ)logq(wθ)p(wD)=argminθwq(wθ)logq(wθ)p(D)p(Dw)p(w)=argminθwq(wθ)logq(wθ)p(w)wq(wθ)logp(Dw)+wq(wθ)logp(D)=argminθKL[q(wθ)p(w)]Eq(wθ)[logp(Dw)]\begin{aligned} \theta^\text{*} &= \arg \min_\theta \text{KL} [q(w | \theta) \| p(w | D)] \\ &= \arg \min_\theta \sum_w q(w | \theta) \log \frac{q(w | \theta)}{p(w | D)} \\ &= \arg \min_\theta \sum_w q(w | \theta) \log \frac{q(w | \theta)p(D)}{p(D | w)p(w)} \\ &= \arg \min_\theta \sum_w q(w | \theta) \log \frac{q(w | \theta)}{p(w)} - \sum_w q(w | \theta) \log p(D | w) + \sum_w q(w | \theta) \log p(D) \\ &= \arg \min_\theta \text{KL} [q(w | \theta) \| p(w)] - \mathbb{E}_{q(w|\theta)} [\log p(D|w)] \end{aligned}

写成目标函数就是:

F(D,θ)=KL[q(wθ)p(w)]complexity costEq(wθ)[logp(Dw)]likelihood cost(1)F(D,\theta) = \underbrace{\text{KL} [q(w \mid \theta) \| p(w)]}_{\text{complexity cost}} - \underbrace{\mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)]}_{\text{likelihood cost}} \tag{1}

这个函数也被称为 variational free energy,就是 ELBO 加个负号。所以我们要最大化 ELBO,但要最小化 variational free energy。

式 (1) 可以被看做两种代价的组合:

  • complexity cost:权重和其先验的差距

  • likelihood cost:对样本的拟合程度

相当于既要尽可能拟合样本,又要尽可能符合先验,在两种代价中取平衡,是一个 trade-off 的过程,可以看做正则化。

式 (1) 是个优化问题,所以可以上梯度下降。但在这之前,还有一些问题需要解决,因为式 (1) 没法求梯度。

蒙特卡洛采样

式 (1) 的第一项中,q(wθ)q(w \mid \theta) 是个我们自己定的分布(通常是高斯分布),p(w)p(w) 是个我们自己定的先验(通常也是高斯分布),都有闭式解,可以直接对 θ\theta 求梯度。

主要问题在第二项 Eq(wθ)[logp(Dw)]\mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)] 上。这是个期望,它不好求,那么算它的时候一般会喜闻乐见地用蒙特卡洛采样来近似,即根据 q(wθ)q(w \mid \theta) 采样 M 个 wiw_i,然后有:

Eq(wθ)[logp(Dw)]1Mi=1Mlogp(Dwi)\mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)] \approx \frac{1}{M} \sum_{i=1}^M \log p(D \mid w_i)

于是近似之后这一项就变得跟参数 θ\theta 无关了,梯度下降时这一项关于 θ\theta 的梯度会为 0。这是因为 zzθ\theta 之间不是确定性函数关系,而是一种采样的关系。于是就有一种叫重参数化的 trick,把这种采样的关系转变成确定性函数关系。

重参数化

重参数化(reparameterization)是变分自编码器(Variational Auto-Encoder, VAE)引入的操作。先引入一个分布为 p(ϵ)p(\epsilon) 的随机变量 ϵ\epsilon,然后把期望 Eq(wθ)[logp(Dw)]\mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)] 重写为:

Eq(wθ)[logp(Dw)]=Ep(ϵ)[logp(Dt(θ,ϵ))]\mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)] = \mathbb{E}_{p(\epsilon)} [\log p(D \mid t(\theta, \epsilon))]

其中 wt(θ,ϵ)w \triangleq t(\theta, \epsilon),是一个确定性函数,这样就可以先从 p(ϵ)p(\epsilon) 中采样出 ϵ\epsilon,然后可导地引入 ww。例如 q(wθ)=N(μ,σ2)q(w \mid \theta) = \mathcal{N}(\mu, \sigma^2)μ,σ\mu, \sigma 依赖于参数 θ\theta,那么可以把 ww 写为:

wt(θ,ϵ)=μ+σϵw \triangleq t(\theta, \epsilon) = \mu + \sigma \odot \epsilon

其中 ϵN(0,1)\epsilon \thicksim \mathcal{N}(0, 1)


而该论文对此作了推广。对于期望 Eq(wθ)[logp(Dw)]\mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)],它的梯度 θEq(wθ)[logp(Dw)]\frac{\partial}{\partial \theta} \mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)] 不好直接算,采样之后梯度又为 0,那么能不能把求导移到期望里面去:Eq(wθ)[θlogp(Dw)]\mathbb{E}_{q(w \mid \theta)} [\frac{\partial}{\partial \theta} \log p(D \mid w)]

并不能,因为期望(积分)是跟参数 θ\theta 有关的,而 logp(Dw)\log p(D \mid w) 是与 θ\theta 无关的,把求导移进去的话梯度又为 0 了。因此该论文把 ww 写为 t(θ,ϵ)t(\theta, \epsilon),其中 ϵq(ϵ)\epsilon \thicksim q(\epsilon)。然后它证明了对于函数 f(w,θ)f(w, \theta),只要有 q(ϵ)dϵ=q(wθ)dwq(\epsilon)d \epsilon = q(w \mid \theta)dw,就有:

θEq(wθ)[f(w,θ)]=θf(w,θ)q(wθ)dw=θf(w,θ)q(ϵ)dϵ=Eq(ϵ)[f(w,θ)wwθ+f(w,θ)θ]\begin{aligned} \frac{\partial}{\partial \theta} \mathbb{E}_{q(w \mid \theta)} [f(w, \theta)] &= \frac{\partial}{\partial \theta} \int f(w, \theta)q(w \mid \theta) dw \\ &= \frac{\partial}{\partial \theta} \int f(w, \theta) q(\epsilon)d \epsilon\\ &= \mathbb{E}_{q(\epsilon)} \left [\frac{\partial f(w, \theta)}{\partial w} \frac{\partial w}{\partial \theta} + \frac{\partial f(w, \theta)}{\partial \theta} \right ] \end{aligned}

这时就可以把求导移进期望里了。从直觉上来理解的话,现在 Eq(wθ)[logp(Dw)]\mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)] 可以写成:

Eq(wθ)[logp(Dw)]=Eq(ϵ)[logp(Dt(θ,ϵ))]\mathbb{E}_{q(w \mid \theta)} [\log p(D \mid w)] = \mathbb{E}_{q(\epsilon)} [\log p(D \mid t(\theta, \epsilon))]

那么现在期望就和 θ\theta 无关,而似然则和 θ\theta 有关了,于是就可以把求导移进去了。


论文里令 f(wθ)=logq(wθ)logp(w)p(Dw)f(w \mid \theta) = \log q(w \mid \theta) - \log p(w)p(D \mid w),则:

F(D,θ)=Eq(wθ)[f(wθ)]i=1nlogq(wiθ)logp(wi)logp(Dwi)F(D,\theta) = \mathbb{E}_{q(w \mid \theta)} [f(w \mid \theta)] \approx \sum_{i=1}^n \log q(w_i \mid \theta) - \log p(w_i) - \log p(D \mid w_i)

这个近似把 KL 散度也蒙特卡洛了,这种做法摆脱了对 KL 散度有闭式解的要求。虽然在很多情况下 KL 散度能写出闭式解,但这样可以适配更多的先验后验分布形式。

梯度下降

为了计算方便,论文用了平均场近似(mean-field approximation)。即令变分后验 q(wθ)q(w \mid \theta) 为一个平均场分布族,即认为各个参数 wiw_i 之间相互独立,每个参数 wiw_i 都服从高斯分布(也即协方差矩阵除了对角线以外都为 0,所以原文用的是 diagonal Gaussian distribution 这个词),那么有:

q(wθ)=iqi(wiθ)=iN(wiμi,σi2)q(w \mid \theta) = \prod_i q_i(w_i \mid \theta) = \prod_i \mathcal{N}(w_i \mid \mu_i, \sigma_i^2)

按照之前说的重参数化操作,wiw_i 可以写为:

wi=μi+σiϵiw_i = \mu_i + \sigma_i \odot \epsilon_i ϵiN(0,1)\epsilon_i \thicksim \mathcal{N}(0, 1)

然后令 f(wθ)=logq(wθ)logp(w)p(Dw)f(w \mid \theta) = \log q(w \mid \theta) - \log p(w) - p(D \mid w)。因为最大化 p(Dw)p(D \mid w) 跟最小化 L(w)L(w) 是一回事,所以也可以写成 f(wθ)=logq(wθ)logp(w)+L(w)f(w \mid \theta) = \log q(w \mid \theta) - \log p(w) + L(w)

θ=(μ,σ)\theta = (\mu, \sigma),那么分别对 μ\muσ\sigma 求梯度:

Δμ=f(w,θ)w+f(w,θ)μ\Delta_{\mu} = \frac{\partial f(w, \theta)}{\partial w} + \frac{\partial f(w, \theta)}{\partial \mu} Δσ=f(w,θ)wϵ+f(w,θ)σ\Delta_{\sigma} = \frac{\partial f(w, \theta)}{\partial w} \cdot \epsilon + \frac{\partial f(w, \theta)}{\partial \sigma}

为了保证 σ\sigma 非负,论文又把 σ\sigma 写成了 σ=log(1+exp(ρ))\sigma = \log (1 + \exp(\rho)),所以现在变成了 θ=(μ,ρ)\theta = (\mu, \rho),关于 ρ\rho 的梯度为:

Δρ=f(w,θ)wϵ1+exp(ρ)+f(w,θ)ρ\Delta_{\rho} = \frac{\partial f(w, \theta)}{\partial w} \frac{\epsilon}{1 + \exp(- \rho)} + \frac{\partial f(w, \theta)}{\partial \rho}

然后按梯度下降更新 μ,ρ\mu, \rho 即可:

μμαΔμ\mu \larr \mu - \alpha \Delta_{\mu} ρραΔρ\rho \larr \rho - \alpha \Delta_{\rho}

胡思乱想

0x00

打算理 BNN 是因为看到了一篇论文:

Uncertainty-guided Ccontinual Learning with Bayesian Neural Networks. Sayna Ebrahimi, et al. ICLR 2020. [Paper] [Code]

个人觉得它的思想非常简洁,就是对 BNN 参数更新的学习率 α\alpha 做了修改,以至于让我这种菜鸡都能立马理解,甚至觉得我要是早点入这个坑我也能想出这个 idea(不是没有我没这样说过

方差 σi\sigma_i 可以被看做参数 wiw_i 的不确定度(uncertainty),方差越大说明这个参数对当前任务越重要,那么在后面的任务中它的更新幅度就应该小一点,反之则应该大一点。也就是说参数重要性 Ω\Omega 被定义为:

Ωi1σi\Omega_i \propto \frac{1}{\sigma_i}

而与一般的 regularization-based continual learning 方法加正则项的做法不同,这篇论文直接通过控制学习率来控制更新幅度,不过它只更新了 μ\mu 的学习率,ρ\rho 的学习率则一直保持不变:

αiμαiμΩi\alpha_i^\mu \larr \frac{\alpha_i^\mu}{\Omega_i}

0x01

贝叶斯神经网络是一种深度学习方法,诞生在一个 Autograd 工具大行其道的时代,因此对于最小化 Eq(wθ)[f(w,θ)]\mathbb{E}_{q(w \mid \theta)} [f(w, \theta)] 这个优化问题,它可以直接上梯度下降。

还有一种贝叶斯系方法叫 ADF(Assumed Density Filtering),或者叫它在线变分贝叶斯(Online Variational Bayes)可能还更容易理解一点。在第 nn 个数据集 DnD_n 上估计参数时,它会把 f(w,θ)f(w, \theta) 中的参数先验 pn(w)p_n(w) 替换为上一个数据集上的参数后验 pn1(wDn1)=qn1(w)p_{n-1}(w \mid D_{n-1}) = q_{n-1}(w)

在 ADF 诞生的那个年代,深度学习还是个冷门领域,也并没有什么 Autograd 工具能给你用。因此 ADF 在求极小值时直接用了“使导数为 0”这种硬核方法:

θEq(wθ)[f(w,θ)]=Eq(ϵ)[f(w,θ)wwθ+f(w,θ)θ]=0\frac{\partial}{\partial \theta} \mathbb{E}_{q(w \mid \theta)} [f(w, \theta)] = \mathbb{E}_{q(\epsilon)} \left [\frac{\partial f(w, \theta)}{\partial w} \frac{\partial w}{\partial \theta} + \frac{\partial f(w, \theta)}{\partial \theta} \right ] = 0

因为 qq 是指数族分布,所以上式是有闭式解的,只是推导过程比较复杂,感兴趣的话可以看看这篇文章。之所以提到这个,是因为下面这篇论文就是套的 ADF 框架,并直接通过闭式解来更新参数:

Task Agnostic Continual Learning Using Online Variational Bayes. Chen Zeno, et al. arXiv 2018. [Paper] [Code]

而用贝叶斯性来做 continual learning 的开山之作 VCL 跟上面那篇论文的主要不同点在于,VCL 在更新参数时用了梯度下降,相当于在套 ADF 框架的同时又利用了 Autograd 的好处:

Variational Continual Learning. Cuong V. Nguyen, et al. ICLR 2018. [Paper] [Code]

当然 VCL 还采样了一部分旧数据作为 coreset,coreset 也会被用于当前任务的训练,这种喜闻乐见的方法可以提高效果。

然后有空的话我或许会理一理 ADF…

参考

Edit this page on GitHub Last updated: 7/11/2024, 12:52:11 AM