长短期记忆神经网络 -凯发k8网页登录

main content

长短期记忆神经网络

本主题说明如何使用长短期记忆 (lstm) 神经网络处理分类和回归任务的序列和时间序列数据。有关如何使用 lstm 神经网络对序列数据进行分类的示例,请参阅。

lstm 神经网络是一种循环神经网络 (rnn),可以学习序列数据的时间步之间的长期依存关系。

lstm 神经网络架构

lstm 神经网络的核心组件是序列输入层和 lstm 层。序列输入层将序列或时间序列数据输入神经网络中。lstm 层学习序列数据的时间步之间的长期相关性。

下图说明用于分类的简单 lstm 网络的架构。该神经网络从一个序列输入层开始,后跟一个 lstm 层。为了预测类标签,该神经网络的末尾是一个全连接层、一个 softmax 层和一个分类输出层。

下图说明用于回归的简单 lstm 神经网络的架构。该神经网络从一个序列输入层开始,后跟一个 lstm 层。该神经网络的末尾是一个全连接层和一个回归输出层。

下图说明用于视频分类的神经网络的架构。要将图像序列输入到神经网络,请使用序列输入层。要使用卷积层来提取特征,也就是说,要将卷积运算独立地应用于视频的每帧,请使用一个序列折叠层,后跟一个卷积层,然后是一个序列展开层。要使用 lstm 层从向量序列中学习,请使用一个扁平化层,后跟 lstm 层和输出层。

分类 lstm 网络

要创建针对“序列到标签”分类的 lstm 网络,请创建一个层数组,其中包含一个序列输入层、一个 lstm 层、一个全连接层、一个 softmax 层和一个分类输出层。

将序列输入层的大小设置为输入数据的特征数量。将全连接层的大小设置为类的数量。您不需要指定序列长度。

对于 lstm 层,指定隐含单元的数量和输出模式 'last'

numfeatures = 12;
numhiddenunits = 100;
numclasses = 9;
layers = [ ...
    sequenceinputlayer(numfeatures)
    lstmlayer(numhiddenunits,'outputmode','last')
    fullyconnectedlayer(numclasses)
    softmaxlayer
    classificationlayer];

有关说明如何针对“序列到标签”分类训练 lstm 网络和对新数据进行分类的示例,请参阅。

要针对“序列到序列”分类创建一个 lstm 网络,请使用与“序列到标签”分类相同的架构,但将 lstm 层的输出模式设置为 'sequence'

numfeatures = 12;
numhiddenunits = 100;
numclasses = 9;
layers = [ ...
    sequenceinputlayer(numfeatures)
    lstmlayer(numhiddenunits,'outputmode','sequence')
    fullyconnectedlayer(numclasses)
    softmaxlayer
    classificationlayer];

回归 lstm 网络

要针对“序列到单个”回归创建一个 lstm 网络,请创建一个层数组,其中包含一个序列输入层、一个 lstm 层、一个全连接层和一个回归输出层。

将序列输入层的大小设置为输入数据的特征数量。将全连接层的大小设置为响应的数量。您不需要指定序列长度。

对于 lstm 层,指定隐含单元的数量和输出模式 'last'

numfeatures = 12;
numhiddenunits = 125;
numresponses = 1;
layers = [ ...
    sequenceinputlayer(numfeatures)
    lstmlayer(numhiddenunits,'outputmode','last')
    fullyconnectedlayer(numresponses)
    regressionlayer];

要针对“序列到序列”回归创建一个 lstm 网络,请使用与“序列到单个”回归相同的架构,但将 lstm 层的输出模式设置为 'sequence'

numfeatures = 12;
numhiddenunits = 125;
numresponses = 1;
layers = [ ...
    sequenceinputlayer(numfeatures)
    lstmlayer(numhiddenunits,'outputmode','sequence')
    fullyconnectedlayer(numresponses)
    regressionlayer];

有关说明如何针对“序列到序列”回归训练 lstm 网络和对新数据进行预测的示例,请参阅。

视频分类网络

要针对包含图像序列的数据(如视频数据和医学图像)创建一个深度学习网络,请使用序列输入层指定图像序列输入。

要使用卷积层来提取特征,也就是说,要将卷积运算独立地应用于视频的每帧,请使用一个序列折叠层,后跟一个卷积层,然后是一个序列展开层。要使用 lstm 层从向量序列中学习,请使用一个扁平化层,后跟 lstm 层和输出层。

inputsize = [28 28 1];
filtersize = 5;
numfilters = 20;
numhiddenunits = 200;
numclasses = 10;
layers = [ ...
    sequenceinputlayer(inputsize,'name','input')
    
    sequencefoldinglayer('name','fold')
    
    convolution2dlayer(filtersize,numfilters,'name','conv')
    batchnormalizationlayer('name','bn')
    relulayer('name','relu')
    
    sequenceunfoldinglayer('name','unfold')
    flattenlayer('name','flatten')
    
    lstmlayer(numhiddenunits,'outputmode','last','name','lstm')
    
    fullyconnectedlayer(numclasses, 'name','fc')
    softmaxlayer('name','softmax')
    classificationlayer('name','classification')];

将这些层转换为一个层图,并将序列折叠层的 minibatchsize 输出连接到序列展开层的对应输入。

lgraph = layergraph(layers);
lgraph = connectlayers(lgraph,'fold/minibatchsize','unfold/minibatchsize');

有关说明如何针对视频分类训练深度学习网络的示例,请参阅。

更深的 lstm 网络

您可以通过在 lstm 层之前插入具有输出模式 'sequence' 的额外 lstm 层来加大 lstm 网络的深度。为了防止过拟合,可以在 lstm 层后插入丢弃层。

对于“序列到标签”分类网络,最后一个 lstm 层的输出模式必须为 'last'

numfeatures = 12;
numhiddenunits1 = 125;
numhiddenunits2 = 100;
numclasses = 9;
layers = [ ...
    sequenceinputlayer(numfeatures)
    lstmlayer(numhiddenunits1,'outputmode','sequence')
    dropoutlayer(0.2)
    lstmlayer(numhiddenunits2,'outputmode','last')
    dropoutlayer(0.2)
    fullyconnectedlayer(numclasses)
    softmaxlayer
    classificationlayer];

对于“序列到序列”分类网络,最后一个 lstm 层的输出模式必须为 'sequence'

numfeatures = 12;
numhiddenunits1 = 125;
numhiddenunits2 = 100;
numclasses = 9;
layers = [ ...
    sequenceinputlayer(numfeatures)
    lstmlayer(numhiddenunits1,'outputmode','sequence')
    dropoutlayer(0.2)
    lstmlayer(numhiddenunits2,'outputmode','sequence')
    dropoutlayer(0.2)
    fullyconnectedlayer(numclasses)
    softmaxlayer
    classificationlayer];

网络层

描述

序列输入层向神经网络输入序列数据并应用数据归一化。

lstm 层是一个 rnn 层,该层学习时间序列和序列数据中时间步之间的长期相关性。

双向 lstm (bilstm) 层是一个 rnn 层,该层学习时间序列或序列数据的时间步之间的双向长期相关性。当您希望 rnn 在每个时间步从完整时间序列中学习时,这些相关性会很有用。

gru 层是一个 rnn 层,它学习时间序列和序列数据中时间步之间的相关性。

一维卷积层将滑动卷积滤波器应用于一维输入。

一维最大池化层通过将输入划分为一维池化区域并计算每个区域的最大值来执行下采样。

一维平均池化层通过将输入划分为若干一维池化区域,然后计算每个区域的平均值来执行下采样。

一维全局最大池化层通过输出输入的时间或空间维度的最大值来执行下采样。

序列折叠层将一批图像序列转换为一批图像。使用序列折叠层独立地对图像序列的时间步执行卷积运算。

序列展开层在序列折叠后还原输入数据的序列结构。

扁平化层将输入的空间维度折叠成通道维度。

(text analytics toolbox)

单词嵌入层将单词索引映射到向量。

分类、预测和预报

要对新数据进行分类或预测,请使用 和 。

lstm 神经网络可以记住各次预测之间的神经网络状态。如果您事先没有完整的时间序列,或您要对一个长时间序列进行多次预测,则 rnn 状态会很有用。

要对一个时间序列的多个部分进行预测和分类并更新 rnn 状态,请使用 和 。要重置各预测之间的 rnn 状态,请使用 。

有关如何预测序列的将来时间步的示例,请参阅。

序列填充、截断和拆分

lstm 神经网络支持具有不同序列长度的输入数据。当使数据通过神经网络时,软件会填充、截断或拆分序列,以便每个小批量中的所有序列都具有指定的长度。您可以使用 中的 sequencelengthsequencepaddingvalue 名称-值对组参数来指定序列长度和用于填充序列的值。

训练神经网络后,在使用 classifypredictclassifyandupdatestatepredictandupdatestateactivations 函数时,使用相同的小批量大小和填充选项。

按长度对序列排序

要在填充或截断序列时减少填充或丢弃的数据量,请尝试按序列长度对数据进行排序。要按序列长度对数据进行排序,首先使用 cellfun 对每个序列应用 size(x,2) 来获得每个序列的列数。然后使用 sort 对序列长度进行排序,并使用第二个输出对原始序列重新排序。

sequencelengths = cellfun(@(x) size(x,2), xtrain);
[sequencelengthssorted,idx] = sort(sequencelengths);
xtrain = xtrain(idx);

two plots bar charts representing sequence data. the x axis is labeled

填充序列

如果您指定序列长度 'longest',则软件会填充序列,使小批量中的所有序列具有与小批量中的最长序列相同的长度。此选项是默认选项。

two plots bar charts representing sequence data. the x axis is labeled

截断序列

如果您指定序列长度 'shortest',则软件会截断序列,使小批量中的所有序列具有与该小批量中的最短序列相同的长度。序列中的其余数据被丢弃。

two plots bar charts representing sequence data. the x axis is labeled

拆分序列

如果将序列长度设置为整数值,则软件会将小批量中的所有序列填充到小批量中最长序列的长度。然后,软件将每个序列拆分为指定长度的较小序列。如果发生拆分,则软件会创建额外的小批量。如果指定的序列长度没有均分数据的序列长度,则对于包含这些序列的最终时间步的小批量,其长度短于指定的序列长度。

如果整个序列无法放入内存中,请使用此选项。您也可以通过使用 函数将 训练选项设置为较低的值来减少每个小批量的序列数。

如果您将序列长度指定为正整数,则软件会在连续的迭代中处理较小的序列。神经网络会在拆分的序列之间更新 rnn 状态。

two plots bar charts representing sequence data. the x axis is labeled

指定填充方向

填充和截断的位置会影响训练、分类和预测准确度。请尝试将 中的 选项设置为 'left''right',看看哪个最适合您的数据。

由于循环层一次处理一个时间步的序列数据,当循环层 outputmode 属性为 "last" 时,最终时间步中的任何填充都会对层输出产生负面影响。要填充或截断左侧的序列数据,请将 选项设置为 "left"

对于“序列到序列”神经网络(当每个循环层的 outputmode 属性为 "sequence" 时),前几个时间步中的任何填充都会对较早时间步的预测产生负面影响。要填充或截断右侧的序列数据,请将 选项设置为 "right"

two plots bar charts representing sequence data sorted by length. the x axis is labeled

two plots bar charts representing sequence data sorted by length. the x axis is labeled

归一化序列数据

要在训练时使用以零为中心的归一化自动对训练数据调整中心位置,请将 的 选项设置为 'zerocenter'。您也可以通过首先计算所有序列的每个特征的均值和标准差来归一化序列数据。然后,对于每个训练观测值,减去均值并除以标准差。

mu = mean([xtrain{:}],2);
sigma = std([xtrain{:}],0,2);
xtrain = cellfun(@(x) (x-mu)./sigma,xtrain,'uniformoutput',false);

无法放入内存的数据

如果数据太大而无法放入内存或在读取批量数据时无法执行特定操作,请对序列、时间序列和信号数据使用数据存储。

要了解详细信息,请参阅和。

可视化

通过使用 函数提取激活,调查并可视化 lstm 神经网络从序列和时间序列数据中学习到的特征。要了解详细信息,请参阅。

lstm 层架构

以下是数据流通过 lstm 层的示意图,其中输入为 x、输出为 y、时间步数为 t。在图中,ht 表示在时间步 t 的输出(也称为隐藏状态),ct 表示在该时间步的单元状态

如果层输出完整序列,则它输出 y1、…、yt,等效于 h1、…、ht。如果该层仅输出最后一个时间步,则该层输出 yt,等效于 ht。输出中的通道数量与 lstm 层的隐藏单元数量匹配。

diagram showing flow of data through an lstm layer. the input time steps are labeled x_1 through x_t. the outputs are labeled y_1 through y_t. the layer consists of multiple lstm operations. each lstm operation receives the hidden state and cell state from the previous operation and passes an updated hidden and cell state to the next operation. the hidden states are labeled h_0 through h_t, where h_0 is the initial state. the cell states are labeled c_0 through c_t, where c_0 is the initial state. the outputs y_t are equivalent to the hidden states h_t.

第一个 lstm 运算使用 rnn 的初始状态和序列的第一个时间步来计算第一个输出和更新后的单元状态。在时间步 t 上,该运算使用 rnn 的当前状态 (ct1,ht1) 和序列的下一个时间步来计算输出和更新后的单元状态 ct

该层的状态由隐藏状态(也称为输出状态)和单元状态组成。时间步 t 处的隐藏状态包含该时间步的 lstm 层的输出。单元状态包含从前面的时间步中获得的信息。在每个时间步,该层都会在单元状态中添加或删除信息。该层使用不同的控制这些更新。

以下组件控制层的单元状态和隐藏状态。

组件目的
输入门 (i)控制单元状态更新的级别
遗忘门 (f)控制单元状态重置(遗忘)的级别
候选单元 (g)向单元状态添加信息
输出门 (o)控制添加到隐藏状态的单元状态的级别

下图说明在时间步 t 上的数据流。此图显示门如何遗忘、更新和输出单元状态和隐藏状态。

lstm 层的可学习权重包括输入权重 w (inputweights)、循环权重 r (recurrentweights) 以及偏置 b (bias)。矩阵 w、r 和 b 分别是输入权重、循环权重和每个分量的偏置的串联。该层根据以下方程串联矩阵:

w=[wiwfwgwo],  r=[rirfrgro],  b=[bibfbgbo],

其中 i、f、g、o 分别表示输入门、遗忘门、候选单元和输出门。

时间步 t 处的单元状态由下式给出:

ct=ftct1 itgt,

其中 表示哈达玛乘积(向量的按元素乘法)。

时间步 t 处的隐藏状态由下式给出:

ht=otσc(ct),

其中 σc 表示状态激活函数。默认情况下,lstmlayer 函数使用双曲正切函数 (tanh) 计算状态激活函数。

以下公式说明时间步 t 处的组件。

组件公式
输入门it=σg(wixt riht1 bi)
遗忘门ft=σg(wfxt rfht1 bf)
候选单元gt=σc(wgxt rght1 bg)
输出门ot=σg(woxt roht1 bo)

在这些计算中,σg 表示门激活函数。默认情况下,lstmlayer 函数使用 σ(x)=(1 ex)1 给出的 sigmoid 函数来计算门激活函数。

参考

[1] hochreiter, s., and j. schmidhuber. "long short-term memory." neural computation. vol. 9, number 8, 1997, pp.1735–1780.

另请参阅

| | | | | | | | | | (text analytics toolbox) |

相关主题

网站地图