Pytorch中的VGG实现修改最后一层FC

Pytorch中的VGG是一个强大的卷积神经网络,它被广泛应用于图像分类、目标检测和语义分割等领域 。VGG的主要特点是使用了多个3x3的卷积层来代替较大的卷积核,从而减少了参数数量和模型复杂度 。在Pytorch中,我们可以使用预训练的VGG模型来进行迁移学习,但是有时候我们需要修改最后一层的全连接层来适应我们的任务,本文将从多个角度分析如何在Pytorch中实现修改VGG的最后一层全连接层 。
1. 查看VGG模型的结构

Pytorch中的VGG实现修改最后一层FC

文章插图
首先,我们需要了解VGG模型的结构,以便于进行修改 。在Pytorch中,我们可以使用以下代码加载VGG16模型:
```python
import torch
import torchvision.models as models
vgg16 = models.vgg16(pretrained=True)
print(vgg16)
```
运行以上代码,我们可以看到VGG16模型的结构如下:
```
VGG(
(features): Sequential(
(0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(1): ReLU(inplace=True)
(2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(3): ReLU(inplace=True)
(4): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(5): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(6): ReLU(inplace=True)
(7): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(8): ReLU(inplace=True)
(9): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(10): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(11): ReLU(inplace=True)
(12): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(13): ReLU(inplace=True)
(14): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(15): ReLU(inplace=True)
(16): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(17): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(18): ReLU(inplace=True)
(19): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(20): ReLU(inplace=True)
(21): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(22): ReLU(inplace=True)
(23): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(24): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(25): ReLU(inplace=True)
(26): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(27): ReLU(inplace=True)
(28): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(29): ReLU(inplace=True)
(30): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
)
(avgpool): AdaptiveAvgPool2d(output_size=(7, 7))
(classifier): Sequential(
(0): Linear(in_features=25088, out_features=4096, bias=True)
(1): ReLU(inplace=True)
(2): Dropout(p=0.5, inplace=False)
(3): Linear(in_features=4096, out_features=4096, bias=True)
(4): ReLU(inplace=True)
(5): Dropout(p=0.5, inplace=False)
(6): Linear(in_features=4096, out_features=1000, bias=True)
)
)
```
我们可以看到,VGG16模型包含了一个由卷积层和池化层构成的特征提取部分和一个由三个全连接层构成的分类器部分 。其中,最后一个全连接层的输入大小为25088,输出大小为1000,对应于ImageNet数据集的1000个类别 。我们可以使用以下代码查看每一层的参数数量:
```python
for name, param in vgg16.named_parameters():
print(name, param.numel())
```
运行以上代码,我们可以看到每一层的参数数量如下:
```
features.0.weight 1728
features.0.bias 64
features.2.weight 36864

推荐阅读