我有一个问题,一个星期无法解决。我正在尝试构建CIFAR-10分类器,但是每批之后的损失值是随机跳跃的,即使是同一批,精度也没有提高(我什至无法对一个批次进行过拟合),所以我想这是唯一可能的原因是-权重未更新。

我的模块课

class Net(nn.Module):
def __init__(self):
    super(Net, self).__init__()
    self.conv_pool = nn.Sequential(
        nn.Conv2d(3, 64, 3, padding=1),
        nn.ReLU(),
        nn.MaxPool2d(2, 2),
        nn.Conv2d(64, 128, 3, padding=1),
        nn.ReLU(),
        nn.MaxPool2d(2, 2),
        nn.Conv2d(128, 256, 3, padding=1),
        nn.ReLU(),
        nn.MaxPool2d(2, 2),
        nn.Conv2d(256, 512, 3, padding=1),
        nn.ReLU(),
        nn.MaxPool2d(2, 2),
        nn.Conv2d(512, 512, 1),
        nn.ReLU(),
        nn.MaxPool2d(2, 2))

    self.fcnn = nn.Sequential(
        nn.Linear(512, 2048),
        nn.ReLU(),
        nn.Linear(2048, 2048),
        nn.ReLU(),
        nn.Linear(2048, 10)
    )

def forward(self, x):
    x = self.conv_pool(x)
    x = x.view(-1, 512)
    x = self.fcnn(x)
    return x


我正在使用的优化器:

net = Net()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)


我的火车功能:

def train():
for epoch in range(5):  # loop over the dataset multiple times
    for i in range(0, df_size):
        # get the data

        try:
            images, labels = loadBatch(ds, i)
        except BaseException:
            continue

        # wrap
        inputs = Variable(images)

        optimizer.zero_grad()

        outputs = net(inputs)

        loss = criterion(outputs, Variable(labels))

        loss.backward()
        optimizer.step()
        acc = test(images,labels)
        print("Loss: " + str(loss.data[0]) + " Accuracy %: " + str(acc) + " Iteration: " + str(i))

        if i % 40 == 39:
            torch.save(net.state_dict(), "model_save_cifar")

    print("Finished epoch " + str(epoch))


我正在使用batch_size = 20,image_size = 32(CIFAR-10)

loadBatch函数返回图像的LongTensor 20x3x32x32元组和标签的LongTensor 20x1元组

如果您能为我提供帮助或提出可能的解决方案,我将非常高兴(我猜这是因为NN中的顺序模块,但是我传递给优化器的参数似乎是正确的)

最佳答案

好的,我知道是什么问题。我试图自己将图像转换为张量,似乎弄乱了图像的尺寸+我一直在按顺序观看SGD步骤,而不是分批观看。现在,我每25批检查一次,大多数时候都可以,取决于NN和数据。这是我的加载数据的代码,希望有人能对您有所帮助

货物数据集是用于从文件夹中加载图像的数据集,而包含列类别作为标签和ID作为图像文件ID的csv文件

我建议使用pytorch图像处理功能和Pillow Image.Open

batch_size = 8
img_size = 224

transformer = transforms.Compose(
    [transforms.ToTensor(),
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])



class GoodsDataset(Dataset):
    def __init__(self, csv_file, root_dir):
        """
        Args:
            csv_file (string): Path to the csv file with annotations.
            root_dir (string): Directory with all the images.
            transform (callable, optional): Optional transform to be applied
                on a sample.
        """
        self.data = pd.read_csv(csv_file)
        self.root_dir = root_dir
        self.le = preprocessing.LabelEncoder()
        self.le.fit(self.data.loc[:, 'category'])

    def __len__(self):
        return len(self.data)

    def __getitem__(self, idx):
        img_name = os.path.join(self.root_dir, str(self.data.loc[idx, 'id']) + '.jpg')
        image = (Image.open(img_name))
        good = self.data.iloc[idx, :].as_matrix()
        label = self.le.transform([good[2]])
        return [transformer(image), label]


然后,您可以使用:

train_ds = GoodsDataset("topthree.csv", "resized")
train_set = dataloader = torch.utils.data.DataLoader(train_ds, batch_size = batch_size, shuffle = True)


在火车函数中,使用enume遍历train_set,这将为您提供索引i和图像和标签的元组,并使用Dataset中的Label Encoder进行编码。

祝好运!

09-10 13:42