使用 alexnet 进行迁移学习 -凯发k8网页登录
此示例说明如何微调预训练的 alexnet 卷积神经网络以对新的图像集合执行分类。
alexnet 已基于超过一百万个图像进行训练,可以将图像分为 1000 个对象类别(例如键盘、咖啡杯、铅笔和多种动物)。该网络已基于大量图像学习了丰富的特征表示。网络以图像作为输入,然后输出图像中对象的标签以及每个对象类别的概率。
深度学习应用中常常用到迁移学习。您可以采用预训练的网络,基于它学习新任务。与使用随机初始化的权重从头训练网络相比,通过迁移学习微调网络要更快更简单。您可以使用较少数量的训练图像快速地将已学习的特征迁移到新任务。
加载数据
解压缩新图像并加载这些图像作为图像数据存储。imagedatastore
根据文件夹名称自动标注图像,并将数据存储为 imagedatastore
对象。通过图像数据存储可以存储大图像数据,包括无法放入内存的数据,并在卷积神经网络的训练过程中高效分批读取图像。
unzip('merchdata.zip'); imds = imagedatastore('merchdata', ... 'includesubfolders',true, ... 'labelsource','foldernames');
将数据划分为训练数据集和验证数据集。将 70% 的图像用于训练,30% 的图像用于验证。spliteachlabel
将 images
数据存储拆分为两个新的数据存储。
[imdstrain,imdsvalidation] = spliteachlabel(imds,0.7,'randomized');
这个非常小的数据集现在包含 55 个训练图像和 20 个验证图像。显示一些示例图像。
numtrainimages = numel(imdstrain.labels); idx = randperm(numtrainimages,16); figure for i = 1:16 subplot(4,4,i) i = readimage(imdstrain,idx(i)); imshow(i) end
加载预训练网络
加载预训练的 alexnet 神经网络。如果未安装 deep learning toolbox™ model for alexnet network,则软件会提供下载链接。alexnet 已基于超过一百万个图像进行训练,可以将图像分为 1000 个对象类别(例如键盘、鼠标、铅笔和多种动物)。因此,该模型已基于大量图像学习了丰富的特征表示。
net = alexnet;
使用 analyzenetwork
可以交互可视方式呈现网络架构以及有关网络层的详细信息。
analyzenetwork(net)
第一层(图像输入层)需要大小为 227×227×3 的输入图像,其中 3 是颜色通道数。
inputsize = net.layers(1).inputsize
inputsize = 1×3
227 227 3
替换最终层
预训练网络 net
的最后三层针对 1000 个类进行配置。必须针对新分类问题微调这三个层。从预训练网络中提取除最后三层之外的所有层。
layerstransfer = net.layers(1:end-3);
通过将最后三层替换为全连接层、softmax 层和分类输出层,将层迁移到新分类任务。根据新数据指定新的全连接层的选项。将全连接层设置为大小与新数据中的类数相同。要使新层中的学习速度快于迁移的层,请增大全连接层的 weightlearnratefactor
和 biaslearnratefactor
值。
numclasses = numel(categories(imdstrain.labels))
numclasses = 5
layers = [ layerstransfer fullyconnectedlayer(numclasses,'weightlearnratefactor',20,'biaslearnratefactor',20) softmaxlayer classificationlayer];
训练网络
网络要求输入图像的大小为 227×227×3,但图像数据存储中的图像具有不同大小。使用增强的图像数据存储可自动调整训练图像的大小。指定要对训练图像额外执行的增强操作:沿垂直轴随机翻转训练图像,以及在水平和垂直方向上随机平移训练图像最多 30 个像素。数据增强有助于防止网络过拟合和记忆训练图像的具体细节。
pixelrange = [-30 30]; imageaugmenter = imagedataaugmenter( ... 'randxreflection',true, ... 'randxtranslation',pixelrange, ... 'randytranslation',pixelrange); augimdstrain = augmentedimagedatastore(inputsize(1:2),imdstrain, ... 'dataaugmentation',imageaugmenter);
要在不执行进一步数据增强的情况下自动调整验证图像的大小,请使用增强的图像数据存储,而不指定任何其他预处理操作。
augimdsvalidation = augmentedimagedatastore(inputsize(1:2),imdsvalidation);
指定训练选项。对于迁移学习,请保留预训练网络的较浅层中的特征(迁移的层权重)。要减慢迁移的层中的学习速度,请将初始学习速率设置为较小的值。在上一步中,您增大了全连接层的学习率因子,以加快新的最终层中的学习速度。这种学习率设置组合只会加快新层中的学习速度,对于其他层则会减慢学习速度。执行迁移学习时,所需的训练轮数相对较少。一轮训练是对整个训练数据集的一个完整训练周期。指定小批量大小和验证数据。软件在训练过程中每 validationfrequency
次迭代验证一次网络。
options = trainingoptions('sgdm', ... 'minibatchsize',10, ... 'maxepochs',6, ... 'initiallearnrate',1e-4, ... 'shuffle','every-epoch', ... 'validationdata',augimdsvalidation, ... 'validationfrequency',3, ... 'verbose',false, ... 'plots','training-progress');
训练由迁移层和新层组成的网络。默认情况下,trainnetwork
使用 gpu(如果有),否则使用 cpu。在 gpu 上训练需要 parallel computing toolbox™ 和支持的 gpu 设备。有关受支持设备的信息,请参阅gpu computing requirements (parallel computing toolbox)。您还可以使用 trainingoptions
的 'executionenvironment'
名称-值对组参数指定执行环境。
nettransfer = trainnetwork(augimdstrain,layers,options);
对验证图像进行分类
使用经过微调的网络对验证图像进行分类。
[ypred,scores] = classify(nettransfer,augimdsvalidation);
显示四个示例验证图像及预测的标签。
idx = randperm(numel(imdsvalidation.files),4); figure for i = 1:4 subplot(2,2,i) i = readimage(imdsvalidation,idx(i)); imshow(i) label = ypred(idx(i)); title(string(label)); end
计算针对验证集的分类准确度。准确度是网络预测正确的标签的比例。
yvalidation = imdsvalidation.labels; accuracy = mean(ypred == yvalidation)
accuracy = 1
有关提高分类准确度的提示,请参阅。
参考
[1] krizhevsky, alex, ilya sutskever, and geoffrey e. hinton. "imagenet classification with deep convolutional neural networks." advances in neural information processing systems. 2012.
[2] bvlc alexnet model. https://github.com/bvlc/caffe/tree/master/models/bvlc_alexnet
另请参阅
| | | analyzenetwork