在好例子网,分享、交流、成长!
您当前所在位置:首页Others 开发实例一般编程问题 → 受限波尔兹曼机(Restricted Boltzmann Machines)介绍

受限波尔兹曼机(Restricted Boltzmann Machines)介绍

一般编程问题

下载此实例
  • 开发语言:Others
  • 实例大小:0.92M
  • 下载次数:7
  • 浏览次数:103
  • 发布时间:2020-09-11
  • 实例类别:一般编程问题
  • 发 布 人:robot666
  • 文件格式:.zip
  • 所需积分:2
 

实例介绍

【实例简介】
RBM在深度学习(deep learning)算法中有着非常重要的应用,本文介绍了RBM的基本概念,并介绍了几种有代表性的算法。作者西安交大张春霞,姬楠楠,王冠伟。
山国武技亡文在线 应用的热潮。理论方面,RBM的CD快速学习算法促进了研究者们对随机近似理论、基于能量 的模型、未归一化的统计模型的研究⑧。应用方面,RBM目前已被成功地应用于不同的机器 学习问题⑨-14,如分炎、回归、降维、高维时闾序列建模、图像特征提取、协同过滤等等。 2006年, Hinton等人[15提出了一种深度信念网终( Deep Belief Nets,DBN),并给出了该 模型的一个髙效学习算法。这个算法成为了其后至今深度学习算法的主要框架。在该算法中, 个DBN模型被视为由若干个RBM堆叠在起,训练时可通过由低到高逐层训练这些RBM来 实现:(1)底部RBM以原始输入数据训练;(2)将底部RBM抽取的特征作为顶部RBM的输入 训练;(3)过程(1)和(2)可以重复来训练所需要的尽可能多的层数。由于RBM可以通过CD快 速训练,这一框架绕过了直接从整体上训练DBN的高复杂度,从而将其化简为对多个RBM的 训练冋题。 Hinton建议,经过这种方式训练后,叮以再通过传统的全局学习算法(如反向传播算 法)对网络进行微调,从而使模型收敛到局部最优点。这种学习算法,本质上等同于先通过逐层 RBM训练将模型的参数初始化为较优的值,再通过少量的传统学习算法进一步训练。这样一 来,不仅解决了模型训练速度慢的问题,大量试验结果也表明,这种方式能够产生非常好的参数 初始值,从而大大提升了模型的建模能力。自此,机器学习领域又产生了一个新的研究方向-深 度学习( Deep learning)[1618],明确提出了面向人工智能的机器学习算法的设计目标。 当前,以RBM为基本构成模块的DBN模型被认为是最有效的深度学习算法之一。鉴于 RBM在深度学习领域中占据的核心位置以及其本身的良好性质,为了给RBM的初学者提供入 门指导,同时为设计与之相关的新算法提供参考,本文将对RBM进行较为系统的介绍,详细阐 述其基本模型、具有代表性的快速学习算法、参数设置、评估方法及其变形算法,最后对RBM 在未来值得硏究的方向进行探讨。 本文后续内容安排如下:第1节介绍受限波尔兹曼机RBM的基本模型,第2节详细阐述当 前训练RBM的快速学习算法,第3节讨论RBM的参数设置,第4节给出评价RBM优劣的方法, 第5节简单介绍几种具有代表性的RBM变形算法,第6是总结与展望,主要探讨RBM在未米 值得研究的方向。 1受限波尔兹曼机RBM的基本模型 RBM也可以被视为一个无向图 undirected graph)模型,如图2所示。v为可见层,用于 表示观测数据,h为隐层,可视为一些特征提取器( feature detectors),W为两层之间的连接权 重。 Welling19指出,RBM中的隐单兀和可见单元可以为任意的指数族单元(即给定隐单元(可 见单元,可见单元(隐单元)的分布可以为任意的指数族分布),如 softmax单元、高斯单元、泊 松单元等等。这里,为了讨论方便起见,我们假设所有的可见单元和隐单元均为二值变量,即 V,j,v∈{0,1},h;∈{0,1} 如果一个RBM有m个可见单元和m个隐单元,用向量v和h分别表示可见单元和隐单元的状 态。其中,v;表示第个可见单元的状态,h表示第个隐单元的状态。那么,对于一组给定的状 国武技论义在线 隐层h 可见层v 图2:RBM的图模型表示,层内单元之间无连接 态(v,h,RBM作为一个系统所具备的能量定义为 ∑a"2-∑bh-∑∑ 上式中,O={Wn,a,b}是RBM的参数,它们均为实数。其中,W表示可见单元;与隐单元j之 间的连接权重,;表小可见单元的煸置(bias),b;表小隐单元j的偏置。当参数确定时,基于该能 量函数,我们可以得到(v,h)的联合概率分布, E(v, ho) P(v, h0 Z(0)=∑ e-E(v, h e z(6) (2 其中z(0)为归一化因子(也称为配分函数, partition function) 时于一个实际问题,我们最关心的是由RBM所定义的关于观测数据v的分布P(ve),即联 合概率分布P(v,h)的边际分布,也称为似然函数( likelihood function P(v8 ∑ E(v, h 0) 3) Z(0 为了确定该分布,需要计算归一化因子z(),这需要2n+m次计算。因此,即使通过训练可以得到 模型的参数W,α和b,我们仍旧无法有效地计算由这些参数所确定的分布。 但是,由RBM的特殊结构(即层间有连接,层内无连接)可知:当给定可见单元的状态时,各 隐单元的激活状态之间是条件独立的。此时,第j个隐单元的激活概率为 P(h=1v,O)=o(+∑W 其中,O(x) 1+exp(-a) 为 sigmoid激活函数 由于RBM的结构是对称的,当给定隐单元的状态时,各可见单元的激活状态之间也是条件 独立的,即第i个可见单元的激活概率为 11)=o(a+∑Wh1 国武技论义在线 2基于对比散度的RBM快速学习算法 学习RBM的任务是求出参数θ的值,以拟合给定的训练数据。参数0可以通过最大 化RBM在训练集(偎设包含T个样本)上的对数似然函数学习得到,即 A=arg max C(0)=arg max>log (6 为了获得最优参数θ^,我们可以使用随札梯度上升法( stochastic gradient ascent)求C(6)= ∑1lgP(vθ)的最大值。其中,关键步骤是计算logP(v()关于各个模型参数的偏导数 由于 c(O)=∑ log p(vo)=∑og∑Pv"),he t=1 ∑1pBw,b ∑ pE(,hO)-lg∑∑oxp-E(,h) 令0表示6中的某个参数,则对数似然函数关于的梯度为 OC、、8(og>expl-E(v(t),h)-1 0e ∑ ∑∑ep-E(v,hO) exp[-e(vo,ho) d(E(vo),h0)) (Σ h exp[-E(v,hO >∑8+E (-E(v,h) 06 ∑ 0(-E(v(0,hl (-E(v,h6) S 06 P(hv(t),0) P(v, h0) 其中,()P表示求关于分布P的数学期望。P(hv),)表示在可见单元限定为已知的训练样本 v()时,隐层的概率分布,故式()中的前一项比较容易计算。P(v,h0)表示可见单元与隐单元 的联合分布,由于归一化因子z(θ)的存在,该分布很难获取,导致我们无法直接计算式(8)中的 第二项,只能通过一些采样方法(如Gibs釆样)获取其近似值。值得指出的是,在最大化似然函 数的过程中,为了加快计算速度,上述偏导数在每一迭代步中的计算一般只基于部分而非所有 的训练样本进行,关丁这部分内容我们将在后面讨论RBM的参数设置时详细阐述。 下面,假设只有一个训练样本,我们分别用“data”和“modl”来简记P(hv(),6)和 P(v,h)这两个概率分布,则对数似然函数关于连接权重W、可见层单元的偏置a和隐层单 山国科技论文在线 元的偏置b;的偏导数分别为 alog P(v8 ihi idata -(ihi,model alog P(v 0) data i ) model a log P(v 8 =(hi)data(hi model 2.1RBM中的 Gibbs采样 Gibs采样( Gibbs sanpling)[20是一种基于马尔可夫链蒙特卡罗( Markov chain monte Carlo,MCMC)策略的采样方法。对于一个K维随机向量X=(X1,X2,……,Xk),假设我们无 法求得关于X的联合分布P(X),但我们知道给定X的其他分量时,其第k个分量Xk的条件分布, 即P(Xk|Xk),Xk-(X1,X2,…,Kk-1,Xk+1,…,Xk)。那么,我们可以从X的一个任意状 态(比如{c1(0),x2(0),…,xk(O))开始,利用上述条件分布,迭代地对其分量依次采样,随着采样 次数的增加,随机变量[r1(m),x2(m),…,xk(n)]的概率分布将以n的几何级数的速度收敛于X的 联合概率分布P(X)。换句话说,我们可以在未知联合概率分布P(X)的条件下对其进行样。 基于RBM模型的对称结构,以及其中神经元状态的条件独立性,我们可以使用 Gibbs采样方 法得到服从RBM定义的分布的随机样本。在RBM中进行k步吉布斯采样的具体算法为:用一个 训练样本(或可见层的任何随机化状态)初始化可见层的状态v,交替进行如下采样: ho w P(h vo), V1 P(v ho), h1 n P(hv1), P(vh P(v hk) 在采样步数k足够大的情况下,我们可以得到服从RBM所定义的分布的样本。此外,使 用Gib样我们也可以得到式(8)中第二项的一个近似。 22基于对比散度的快速学习算法 尽管利用吉布斯采样我们可以得到对数似然函数关于未知参数梯度的近似,但通常情况下 需要使用较大的采样步数,这使得RBM的训练效率仍旧不高,尤其是当观测数据的特征维数较 高时。 2002年, Hinton7提出了RBM的一个快速学习算法,即对比散度( Contrastive Divergence CD)。与吉布斯采样不同, Hinton指出当使用训练数据初始化vo时,我们仅需要使用k(通 常k=1)步吉布斯采样使可以得到足够好的近似。在CD算法一开始,可见单元的状态被设置成 个训练样本,并利用式(4)计算所有隐层单元的二值状态。在所有隐层单元的状态确定之后, 根据式(5)来确定第个可见单元v;取值为1的概率,进而产生可见层的一个重构 reconstruction) 国武技论义在线 这样,在使用随杋悌度上升法最大化对数似然函数在训练数据上的值时,各参数的更新准则为 △Wx=(vh;)ata-(vh recon data 这里,是学习率( (learning rate),{}reon表示一步重构后模型定义的分布 在RBM中,可见单元数一般等于训练数据的特征维数,而隐单元数需要事先给定。为了与 前文记号致,假设可见单元数和隐单元数分别为和m。令W表示可见层与隐层间的连接权重 矩阵(m×m阶),a(n维列向量)和b(m维列向量分别表示可见层与隐层的偏置向量。RBM的基 于CID的快速学习算法主要步骤可描述如下 输入:一个训练样本xo;隐层单元个数灬m;学习率e;最大训练周期T ●输出:连接权重矩阵W、可见层的偏置向量a、隐层的偏置向量b. ·训练阶段 初始化:令可见层单元的初始状态v1=x0;W、a和b为随机的较小数值。 For t=1.2 T For j=1,2,…,m(对所有隐单元) 计算P(h1=11),即P(h1;=1v1)=0(b+∑, 从条件分布P(h1v)中抽取h∈{0,1} EndFor 上ori=1,2,……,m(对所有可见单元 计算P 1h1,即P(v2=1h1)=0(a+∑,Wh1); 从条件分布P(v2h1)中抽取v2∈{0,1} EndO Forj=1.2,…,m(对所有隐单元) 计算P(h2=1v2),即P(h2y=1lv2)=a(b;+∑;2:W7); Endfor 按下式更新各个参数 W←W+∈(P(h1.=1v1) lv2)V2); a←-a+((v1-v2); +c(P(h1=1v1)-P(h=1)v2) 山国科技论文在线 Endfor 算法1.RBⅥ的基于CD的快速学习算法主要步骤 在上述算法中,记号P(hk.=1|vk)(k=1,2)是m维列向量,其第个元素为P(h;=1vk) 尽管上述基于CD的学习算法是针对RBM的可见单元和隐层单元均为二值变量的情形提出 的,但很容易推广到可见层单元为高斯变量、可见层和隐层单元均为高斯变量等其他情形,关于 这方面的研究具体可参见[2125 此外,还有一些研究者在CD算法的基础上,对其作了进一步改进。例如, Tieleman②26提 出了持续对比散度( Persistent contrastive divergence,PCD)算法,该算法与CD的区别在于 首先,PCD不再使用训练数据初始化CD算法中的 Gibbs采样的马氏链;其次,PCD算法中的 学习率较小且不断衰减。根据随机近似理论,尽管每次更新参数后模型都发生了改变(每 次对于W,a和b的更新,RBM定义的分布都会发生改变),但由于学习率较小且不断衰减, 则可认为那条马氏链产生的负样本是由当前RBM定义的分布的一个近似分布米样而来 Tieleman和 Hinton[27进一步改进了PCD算法,他们通过引入一组辅助参数以加快PCD中的 马氏链的混合率,提出了快速持续对比散度( Fast Persistent Contrastive Divergence,FPCD)算 法。关于RBM的学习算法,除了上述提到的基于CD的一些方法之外,还有最大化拟似然函 数( maximum pseudo- likelihood)、比率匹配方法 (ratio matching)等,有兴趣的读者可参阅[28]查 找关于RBM学习算法比较详细的阐述。 3RBM的参数设置 RBM的训练通常是基于CD的方法(即算法1)进行的,但如何设置其中的些参数(如隐单 元个数、学习率、参数的初始值等),是需要有一定经验的。近来,已有部分研究结果②29,30表 明:对于特定的数据集和RBM结构,如果参数设置不合适,RBM将很难对真正的数据分布正 确建模。因此,对实际使用者(尤其是初学者)米说,了解RBM中参数设置的一般规则是非常重 要的。根据 Hinton{23]提供的建议以及我们进行数值试验所获部分经验,对RBM中的参数设 置可参考以下规则。 小批量数据及其容量对于连接权重、可见层和隐层偏置的更新,虽然可以基于一个训练样 本进行(类似于在线学习的方式),但计算量将很大。将训练集事先分成包含几|或几百个样本 的小批量数据(mini- batches)进行计算将更高效,这主要是可以利用图形处珥器GPU( graphic Processing Unit)或 Matlab屮矩阵之间相乘运算的优势。同时,为了避免在小批量数据的样本 容量发生改变时,学习率也必须做相应的修改,通常的做法是在参数的更新过程中,使用参数的 平均梯度(即总梯度除以数据容量),即 B(t+1 (t+1) =0(+ ∑ alog P(v(t)a B 06 t′=Bt+1 这里,B表示小批量数据的容量,其值不应设得太大。B=1表示参数更新以在线学习的方式 进行,而B一T则表示传统的批处理方式。一股而言,若训练集是包含来自不同类(具有同等概 山国武技亡文在线 率)的样本,理想的B应为总类数、使得每批数据屮都包含来自每个类的一个样本,以减小悌度 估计的抽样误差。对于其他数据集.则可先随机化训练样本的次序,再将其分为容量为10的倍数 的小批量数据。 学习率学习率若过大,将导致重构误差急剧增加,权重也会变得异常大。设置学习率的一般做 法是先做权重更新和权重的直方图,令权重更新量为权重的10-3倍左右。如果有一个单元的输 入值很大,则权重更新应再小些,因为同·方向上较多小的波动很容易改变梯度的符号。相反 地,对于偏置,其权重更新可以大一些。 权重和偏置的初始值一般地、连接权重W可初始化为来自正态分布N(0,0.01)的随机数,隐 单元的偏置b初始化为0。对于第讠个可见单元,其偏置az通常初始化为logP/(1-p),其中 γ;表示训练样本中第讠个特征处于激活状态所占的比率。如果不这样做,在学习的早期阶段, RBM会利用隐单元使得第个特征以概率p处于激活状态。 动量学习率学习率e的选择至关重要.ξ大收敛速度快,但过大可能引起算法不稳定;c小可避免 不稳定情况的出现,但收敛速度较慢。为克服这一矛盾,一种具有代表性的思想是在参数更新式 中增加动量项 momentum),使本次参数值修改的方向不完全由当前样本下的似然函数梯度方 向决定,而采用上一次参数值修改方向与本次梯度方向的组合。在某些情况下,这可以避免算法 过早地收敛到局部最优点。以连接权重参数W为例,其更新公式为 W(+D)kw(t) aL (t) 其中k为动量项学习率。开始时,k可设为0.5,在重构误差处于平稳增加状态时,k可取为0.9 权衰减使用权衰减( weight- decay)策略的主要目的是避免学习过程出现过拟合( overfitting) 现象,一般做法是在正常的梯度项后额外增加一项,以对较大的参数值作出惩罚。最简单的 罚函数是2函数(M/2)>∑,W,即所有权重参数的平方和的1/2乘上一个正则化系数入 入在RBM中又称为权损失( weight-cost)。重要的是,惩罚项关于权重参数的梯度必须乘上学习 率,否则.学习率的改变将导致优化的目标函数也发生改变。在RBM中,若使用L2罚函数,贝 权损失系数的取值可以取介于001与0.0001之间的任意值。值得指出的是,权衰减策略只需应用 于连接权重参数W上,可见层和隐层偏置不需使用,因为它们不人可能导致过拟合。并且在 某些情况下,偏置的值还必须较大才行 隐单元个数如果我们关心的主要目标是避免过拟合而不是计算复杂度,则可以先估算一下用 个好的模型描述一个数据所需的比特数,月其乘上训练集容量。基于所得的数,选择比其低 个数量级的值作为隐元个数。如果训练数据是高度冗氽的(比如数据集容量非常大),则可以使 用更少些的隐元。 以上讨论的是RBM中的一些常用的参数设置,针对一个实际问题,应使用什么类型的可见 单元和隐单元,在其中如何加入稀疏性使得隐单元只在少数情况下处于激活状态等问题的讨论, 可参见文[23,31] 山国科技论文在线 4RBM的评估算法 对于一个已经学习得到或正在学习中的RBM,应通过何种指标评价其优劣呢? 显然,最简单的指标就是该RBM在训练数据上的似然度C()=∑1logP(v(()。但是, C(0)的计算涉及到归一化常数(),而这个值是无法通过数学方法直接解析得到的,但我们又 不可能枚举RBM的所有状态。因此,只能采用近似方法对RBM进行评估。 4.1重构误差 所谓“重构误差”( reconstruction error),就是以训练数据作为初始状态,根据RBM的分布进 行一次 Gibbs采样后所获样本与原数据的差异(一般用一范数或二范数来评估) E rror= 0 初始化误差 for all y(),t∈{1,2,…,T}do%对每个训练样本y(进行以下计算 h N P(v() %对隐层采样 ⅴ~P(h %对可见层采样 Error=Eror+‖v-v)‖%累计当前误差 end for return上mOP %返回总误差 算法2.重构误差的计算. 重构误差能够在一定程度上反映RBM对训练数据的似然度,不过并不完全可靠[23。但 总的来说,重构误差的计算十分简单,因此在实践中非常有用。 4.2退火式重要性采样 退火式重要性采样”( Annealed Importance Sampling,AIS)图2是目前比较主流的RBM评 估方法。它的想法非常直接,就是利用蒙特卡岁方法估计RBM对数据的似然度。只不过没有使 用MCMC,而是通过一种叫做“重要性采样”( Importance Sampling)[20的算法进行逼近。这种 算法的优点在于:当目标分布十分陡峭时,不直接对其进行采样,而是引入另一个简单的分布, 在这个简单的分布上采样。然后,利用采样所获样本和两个分布之间的关系对原分布上的均值 进行估算。 “重要性抽样”的基本思想如下:假设我们要计算某个分布P4(x)的归一化常数ZA,那么, 我们可以引入另一个状态空间相同,但更容易采样的分布PB(x),并且事先知道它的归 化常数zB。这时,只要能计算出zA/zB的值,我们就可以算出原分布的归一化常数ZA。假 【实例截图】
【核心代码】

标签:

实例下载地址

受限波尔兹曼机(Restricted Boltzmann Machines)介绍

不能下载?内容有错? 点击这里报错 + 投诉 + 提问

好例子网口号:伸出你的我的手 — 分享

网友评论

发表评论

(您的评论需要经过审核才能显示)

查看所有0条评论>>

小贴士

感谢您为本站写下的评论,您的评论对其它用户来说具有重要的参考价值,所以请认真填写。

  • 类似“顶”、“沙发”之类没有营养的文字,对勤劳贡献的楼主来说是令人沮丧的反馈信息。
  • 相信您也不想看到一排文字/表情墙,所以请不要反馈意义不大的重复字符,也请尽量不要纯表情的回复。
  • 提问之前请再仔细看一遍楼主的说明,或许是您遗漏了。
  • 请勿到处挖坑绊人、招贴广告。既占空间让人厌烦,又没人会搭理,于人于己都无利。

关于好例子网

本站旨在为广大IT学习爱好者提供一个非营利性互相学习交流分享平台。本站所有资源都可以被免费获取学习研究。本站资源来自网友分享,对搜索内容的合法性不具有预见性、识别性、控制性,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,平台无法对用户传输的作品、信息、内容的权属或合法性、安全性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论平台是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二与二十三条之规定,若资源存在侵权或相关问题请联系本站客服人员,点此联系我们。关于更多版权及免责申明参见 版权及免责申明

;
报警