假设我有4个批次的3x100x100图像作为输入,并且我正在尝试使用pytorch制作我的第一个卷积神经网络。我真的不确定我是否正确使用了卷积神经网络,因为当我通过以下方式训练我的输入时,我遇到了错误:

Expected input batch_size (1) to match target batch_size (4).

以下是我的转发nnet:

然后,如果我要通过它:

nn.Conv2d(3, 6, 5)


我会得到6层地图,每个地图的尺寸​​为(100-5 + 1)。

然后,如果我要通过它:

nn.MaxPool2d(2, 2)


我会得到6层地图,每个地图的尺寸​​为(96/2)

然后,如果我要通过它:

nn.Conv2d(6, 16, 5)


我会得到16层地图,每个地图的尺寸​​为(48-5 + 1)

然后,如果我要通过它:

self.fc1 = nn.Linear(44*44*16, 120)


我会得到120个神经元

然后,如果我要通过它:

self.fc2 = nn.Linear(120, 84)


我会得到84个神经元

然后,如果我要通过它:

self.fc3 = nn.Linear(84, 3)


我会得到3个输出,这是完美的,因为我有3类标签。但是正如我之前所说,这会导致错误,这确实令人惊讶,因为这对我来说很有意义。

完整的神经网络代码:

import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(44*44*16, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 3)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 *44*44)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x


net = Net()
net.to(device)

最佳答案

您的理解是正确且非常详细的。

但是,您已经使用了两个池化层(请参见下面的相关代码)。因此,第二步之后的输出将是具有44/2=22维的16个贴图。

x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))


要解决此问题,请不要合并或将完全连接的图层的尺寸更改为22*22*16

要通过不合并来解决问题,请修改您的转发功能,如下所示。

def forward(self, x):
    x = self.pool(F.relu(self.conv1(x)))
    x = F.relu(self.conv2(x))
    x = x.view(-1, 16 *44*44)
    x = F.relu(self.fc1(x))
    x = F.relu(self.fc2(x))
    x = self.fc3(x)
    return x


要通过更改全连接层的尺寸进行修复,请如下更改网络声明。

def __init__(self):
    super(Net, self).__init__()
    self.conv1 = nn.Conv2d(3, 6, 5)
    self.pool = nn.MaxPool2d(2, 2)
    self.conv2 = nn.Conv2d(6, 16, 5)
    self.fc1 = nn.Linear(22*22*16, 120)
    self.fc2 = nn.Linear(120, 84)
    self.fc3 = nn.Linear(84, 10)

08-20 03:45