3.6.循环神经网络
最后更新于
这有帮助吗?
最后更新于
这有帮助吗?
网络输出不仅和当前时刻输入相关,也和过去一段时间的输出相关,如有限自动状态机。
循环神经网络(Recurrent Neural Network, RNN)是具有短期记忆的神经网络,它的参数学习可使用随时间反向传播算法来学习,如果序列比较长,也会出现梯度爆炸和消失问题,称为长程依赖问题,可使用门控机制(Gating Mechanism)来解决。
递归神经网络
图网络
由于前馈网络不具备记忆能力,所以采用三种方式来增加网络记忆能力。
一种最简单的利用历史信息的方法是创建一个额外延时单元,来存储网络的历史信息(输入、输出、隐状态),比较有代表性的模型是延时神经网络。延时神经网络是在前馈网络中的非输出层都添加一个延时器,记录神经元最近几次活性值,在个时刻,第层神经元的活性值依赖层神经元最近个时刻的活性值:
自回归模型(AutoRegressive Model,AR)是统计学上常用的一类时间序列模型,用一个变量的历史信息来预测自己
有外部输入的非线性自回归模型(Nonlinear AutoRegressive with Exogenous Inputs Model,NARX),在每个时刻都有一个外部输入,它会产生一个输出,NARX通过一个延时器记录最近次的外部输入和最近次的输出:
简单循环网络(Simple Recurrent Network,SRN)是一个很简单的循环神经网络,只有一个隐藏层,在一个两层的前馈神经网络中,连接存在相邻的层与层之间,隐藏层的节点之间是无连接的,而简单循环网络增加了从隐藏层到隐藏层的反馈连接。它的公式如:
循环神经网络可看做:时间维度上权值共享的神经网络。
图灵完备(Turing Completeness)是一种操作规则,如某种计算机语言,可实现图灵机(Turing Machine)。
定理6.2——图灵完备:所有的图灵机都可以被一个由使用Sigmoid型激活函数的神经元构成的全连接循环网络进行模拟。
循环神经网络模式:
序列到类别模式
同步的序列到序列模式
异步的序列到序列模式
序列到类别模式主要用于序列数据的分类,输入为序列,输出为类别。
最终转换成
同步序列到序列主要用于序列标注(Sequence Labeling)任务,即每一个时刻有输入和输出,输入序列和输出序列长度相同,如词性标注(Part-of-Speech Tagging)。
循环神经网络依旧使用梯度下降法来学习。
整个序列的损失函数为:
整个序列损失函数L关于参数U的梯度为
随时间反向传播:BPTT
实时循环学习:RTRL
随时间反向传播(BackPropagation Through Timer, BPTT)算法的主要思想是通过类似前馈神经网络的错误反向来计算梯度。BPTT算法将循环神经网络看做一个多层前馈网络,每一层对应循环网络中的“每个时刻”,如此循环神经网络就可以按照前馈网络中的反向传播算法计算参数梯度。
计算复杂度:在BPTT算法中,参数梯度需要在一个完整的前向计算和反向计算后才能得到并进行参数更新。
实时循环学习(Real-Time Recurrent Learning, RTRL)是通过前向传播的方式来计算梯度。
两种算法比较,RTRL算法和BPTT算法都是基于梯度下降的算法,分别通过前向模式和反向模式应用链式法则来计算梯度,在循环神经网络中,一般网络输出维度低于输入维度,因此BPTT算法计算量更小,但空间复杂度更高,RTRL算法比较适合在线学习和无限序列任务。
循环神经网络在学习过程中主要问题是梯度消失或爆炸问题,很难建立长时间间隔(Long Range)的状态依赖关系。展开表达式:
循环神经网络经常使用Logistic和Tanh函数,导数都小于1,权重矩阵也不会太大,经常出现梯度消失问题,由于简单循环网络学习的是短期的依赖关系,所以时间间隔比较大时,它无法对长距离的依赖关系建模,这就是长程依赖问题(Long-Term Dependencies)。
最简单避免爆炸和消失的问题,是使用合适的参数,同时使用非饱和的激活函数。
梯度爆炸,一般而言,循环网络的梯度爆炸问题比较容易解决,一般通过权重衰减或梯度截断避免。
梯度截断是另一种有效的启发式方法,当梯度的模大于一定阈值,就将它截断成一个较小的数。
梯度消失,梯度消失是循环网络的主要问题,除了使用一些优化技巧,更有效的方式是改变模型,模型改进中可能会遇到如下问题:
梯度爆炸问题
记忆容量(Memory Capacity)问题
最好的方式是引入门控机制。
为改善循环神经网络的长程依赖问题,一种比较好的方法是引入门控机制来控制信息的积累速度,有选择地让信息加入,并且有选择性遗忘某些信息,这一类网络称为基于门控的循环神经网络(Gated RNN)。
长短期记忆网络
门控循环单元网络
长短期记忆网络(Long Short-Term Memory Network, LSTM)是循环神经网络的一个变体,可以有效解决简单循环神经网络中梯度爆炸或消失的问题。
门控机制:LSTM网络引入了门控机制(Gating Mechanism)来控制信息传递路径,LSTM中的门是一种“软”门,取值在(0,1)
之间,表示以一定的比例允许通过:
最终的公式如:
目前主流的LSTM使用三个门来动态控制内部状态应该:遗忘多少信息,输入多少信息,输出多少信息。
门控循环单元(Gated Recurrent Unit, GRU)网络是一种比LSTM网络更简单的循环神经网络,GRU网络引入门控制来控制更新方式,和LSTM不同的是,它不引入额外的记忆单元,它引入了一个更新门(Update Gate)来控制当前状态需要从历史状态中保存多少信息:
更新门
借助LSTM网络中输入门和遗忘门的互补性,GRU来控制二者之间的平衡。
GRU网络函数定义:
GRU网络的状态更新方式如:
GRU网络结构:
常见的深层网络是将多个循环网络堆叠起来,称为堆叠循环神经网络(Stacked Recurrent Neural Network, SRNN),一个堆叠的简单循环网络(Stacked SRN)也称为循环多层感知机(Recurrent Multi-Layer Perceptron, RMLP)。
某些任务中,一个时刻的输出不但和过去时间有关,还和后续时间信息有关,因此可以增加我一个逆向层来增强网络能力。双向循环神经网络(Bidirectional Recurrent Neural Network, Bi-RNN)。
递归神经网络(Recursive Nerual Network, RecNN)是循环神经网络在有向无循环图上的扩展。当递归神经网络结构退化成线性序列结构,递归神经网络等价于简单循环网络,使用门控机制改进递归神经网络中的长距离依赖问题,比如树结构的长短期记忆模型(Tree-Structured LSTM)。
图神经网络(Graph Neural Network, GNN)是将消息传递思想扩展到图结构数据上的神经网络。
图卷积网络(Graph Convolutional Network, GCN), 2016
图注意力网络(Graph Attention Network, GAT),2017
消息传递神经网络(Message Passing Neural Network, MPNN),2017
循环神经网络(Recurrent Neural Network,RNN)通过使用带自反馈的神经元,能够处理任意长度的时序数据。给定一个输入序列,循环神经网络通过表达式更新带反馈边的隐藏层活性值:
上述公式是一个动力系统,隐藏层的活性值在很多文献中称为状态(State)或隐状态(Hidden State)。
为隐藏层的净输入
为状态-状态权重矩阵
为状态-输入权重矩阵
为偏置向量
是非线性激活函数,通常为Logistic或Tanh
先定义一个完全连接的神经网络,输入,输出:
定理6.1——循环神经网络的通用近似定理:如果一个完全连接的循环神经网络有足够数量的sigmoid型隐藏神经元,它可以以任意的准确率去近似任何一个非线性动力系统 之中为每个时刻的隐状态,是外部输入,是可测的状态转移函数,是连续输出函数,并且对状态空间的紧致性没有限制。
可以是简单线性分类器或复杂的分类器
异步序列到序列也称为编码器-解码器(Encoder-Decoder)模型,即输入序列和输出序列不需要有严格对应关系,也不需要保持相同长度。先将样本按不同时刻输入到一个循环神经网络(编码器)中,并得到其编码,然后再使用另一个循环神经网络(解码器),得到最终输出序列。
在时刻的损失函数为:
为时刻的输出
为可微分的损失函数,如交叉熵
循环神经网络中存在一个递归调用函数,因此计算梯度方式有两种:
计算偏导数,参数和隐藏层在每个时刻的净输入,所以:时刻损失函数关于参数的梯度为:
表示直接偏导数,即表达式中保持不变,对求偏导。
所以整个序列的损失函数关于参数的梯度为
如果,如果,如果时间间隔很大,梯度也会很大,造成不稳定,称梯度爆炸问题(Gradient Exploding Problem)。
如果,如果,当间隔很大,梯度也会消失,会出现和深层前馈神经网络类似的梯度消失问题(Vanishing Gradient Problem)。
权重衰减是通过给参数增加或范数的正则化项来限制参数取值范围,从而使得。
新的内部状态:LSTM网络引入了一个新的内部状态(Internal State)专程进行线性的循环信息传递,同时输出信息给隐藏层的外部状态,计算公式如:
为三个门(gate)来控制信息传递路径,为向量元素乘积,是通过非线性函数得到的候选状态:
在每个时刻,LSTM网络内部状态记录了到当前时刻为止的历史信息。
遗忘门:控制上一个时刻的内部状态需要遗忘多少信息。
输入门:控制当前时刻的候选状态有多少信息需要保存。
输出门:控制当前时刻的内部状态有多少信息需要输出给外部状态。
上述公式中,为Logistic函数,输出区间为(0,1)
,为当前时刻输入,为上一时刻的外部状态。
首先利用上一时刻的外部状态和当前时刻的输入计算出三个门以及候选状态
结合遗忘门和输入门来更新记忆单元
结合输出门,将内部状态的信息传递给外部状态
记忆:循环神经网络中的隐状态存储了历史信息,可以看做一种记忆(Memory),简单循环网络中,该状态每个时刻都会被重写,因此是短期记忆(Short-Term Memory),神经网络中,长期记忆(Long-Term Memory)可以看做网络参数,隐含了从迅联数据中学习卡的经验,更新周期慢于短期记忆。
在LSTM中,记忆单元可以在某个时刻捕捉关键信息,并有能力将该信息保留一定时间间隔,中保存信息周期长于短期记忆,又短于长期记忆,所以称为长短期记忆(Long Short-Term Memory)。
无遗忘门的LSTM网络:假设内部更新状态(如果记忆单元不断增加,输入序列长度很大时,记忆单元容量会趋于饱和,大大降低LSTM的性能):
peephole连接:另一种变体是三个门不但依赖输入和上一时刻的隐状态,也依赖上一个时刻记忆单元:
耦合输入门和遗忘门:由于LSTM中输入和遗忘门互补,因此同时使用两个门有些冗余,为了减少复杂度,可合并成一个门:,内部状态更新方式为:
,当前状态和前一时刻状态为非线性函数关系
,和为线性函数关系
其中为重置门(Reset Gate):
它用来控制候选状态的计算是否依赖上一时刻的状态。
,候选状态只和当前输入相关,和历史状态无关
,候选状态和当前输入以及历史状态相关(简单循环网络)
如果将循环神经网络按时间展开,每个时刻的隐状态看做一个节点,那这些节点可以构造一个链式结构,每个节点都收到其父节点消息,更新状态并传递给子节点。链式传递很容易将这种消息传递(Message Passing)扩散到整个图。