假设我有4个批次的3x100x100图像作为输入,并且我正在尝试使用pytorch制作我的第一个卷积神经网络。我真的不确定我是否正确使用了卷积神经网络,因为当我通过以下方式训练我的输入时,我遇到了错误:Expected input batch_size (1) to match target batch_size (4).
以下是我的转发nnet:
然后,如果我要通过它:
nn.Conv2d(3, 6, 5)
我会得到6层地图,每个地图的尺寸为(100-5 + 1)。
然后,如果我要通过它:
nn.MaxPool2d(2, 2)
我会得到6层地图,每个地图的尺寸为(96/2)
然后,如果我要通过它:
nn.Conv2d(6, 16, 5)
我会得到16层地图,每个地图的尺寸为(48-5 + 1)
然后,如果我要通过它:
self.fc1 = nn.Linear(44*44*16, 120)
我会得到120个神经元
然后,如果我要通过它:
self.fc2 = nn.Linear(120, 84)
我会得到84个神经元
然后,如果我要通过它:
self.fc3 = nn.Linear(84, 3)
我会得到3个输出,这是完美的,因为我有3类标签。但是正如我之前所说,这会导致错误,这确实令人惊讶,因为这对我来说很有意义。
完整的神经网络代码:
import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(44*44*16, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 3)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 *44*44)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
net.to(device)
最佳答案
您的理解是正确且非常详细的。
但是,您已经使用了两个池化层(请参见下面的相关代码)。因此,第二步之后的输出将是具有44/2=22
维的16个贴图。
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
要解决此问题,请不要合并或将完全连接的图层的尺寸更改为
22*22*16
。要通过不合并来解决问题,请修改您的转发功能,如下所示。
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = F.relu(self.conv2(x))
x = x.view(-1, 16 *44*44)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
要通过更改全连接层的尺寸进行修复,请如下更改网络声明。
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(22*22*16, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)