我有一个问题,一个星期无法解决。我正在尝试构建CIFAR-10分类器,但是每批之后的损失值是随机跳跃的,即使是同一批,精度也没有提高(我什至无法对一个批次进行过拟合),所以我想这是唯一可能的原因是-权重未更新。
我的模块课
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv_pool = nn.Sequential(
nn.Conv2d(3, 64, 3, padding=1),
nn.ReLU(),
nn.MaxPool2d(2, 2),
nn.Conv2d(64, 128, 3, padding=1),
nn.ReLU(),
nn.MaxPool2d(2, 2),
nn.Conv2d(128, 256, 3, padding=1),
nn.ReLU(),
nn.MaxPool2d(2, 2),
nn.Conv2d(256, 512, 3, padding=1),
nn.ReLU(),
nn.MaxPool2d(2, 2),
nn.Conv2d(512, 512, 1),
nn.ReLU(),
nn.MaxPool2d(2, 2))
self.fcnn = nn.Sequential(
nn.Linear(512, 2048),
nn.ReLU(),
nn.Linear(2048, 2048),
nn.ReLU(),
nn.Linear(2048, 10)
)
def forward(self, x):
x = self.conv_pool(x)
x = x.view(-1, 512)
x = self.fcnn(x)
return x
我正在使用的优化器:
net = Net()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
我的火车功能:
def train():
for epoch in range(5): # loop over the dataset multiple times
for i in range(0, df_size):
# get the data
try:
images, labels = loadBatch(ds, i)
except BaseException:
continue
# wrap
inputs = Variable(images)
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, Variable(labels))
loss.backward()
optimizer.step()
acc = test(images,labels)
print("Loss: " + str(loss.data[0]) + " Accuracy %: " + str(acc) + " Iteration: " + str(i))
if i % 40 == 39:
torch.save(net.state_dict(), "model_save_cifar")
print("Finished epoch " + str(epoch))
我正在使用batch_size = 20,image_size = 32(CIFAR-10)
loadBatch函数返回图像的LongTensor 20x3x32x32元组和标签的LongTensor 20x1元组
如果您能为我提供帮助或提出可能的解决方案,我将非常高兴(我猜这是因为NN中的顺序模块,但是我传递给优化器的参数似乎是正确的)
最佳答案
好的,我知道是什么问题。我试图自己将图像转换为张量,似乎弄乱了图像的尺寸+我一直在按顺序观看SGD步骤,而不是分批观看。现在,我每25批检查一次,大多数时候都可以,取决于NN和数据。这是我的加载数据的代码,希望有人能对您有所帮助
货物数据集是用于从文件夹中加载图像的数据集,而包含列类别作为标签和ID作为图像文件ID的csv文件
我建议使用pytorch图像处理功能和Pillow Image.Open
batch_size = 8
img_size = 224
transformer = transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
class GoodsDataset(Dataset):
def __init__(self, csv_file, root_dir):
"""
Args:
csv_file (string): Path to the csv file with annotations.
root_dir (string): Directory with all the images.
transform (callable, optional): Optional transform to be applied
on a sample.
"""
self.data = pd.read_csv(csv_file)
self.root_dir = root_dir
self.le = preprocessing.LabelEncoder()
self.le.fit(self.data.loc[:, 'category'])
def __len__(self):
return len(self.data)
def __getitem__(self, idx):
img_name = os.path.join(self.root_dir, str(self.data.loc[idx, 'id']) + '.jpg')
image = (Image.open(img_name))
good = self.data.iloc[idx, :].as_matrix()
label = self.le.transform([good[2]])
return [transformer(image), label]
然后,您可以使用:
train_ds = GoodsDataset("topthree.csv", "resized")
train_set = dataloader = torch.utils.data.DataLoader(train_ds, batch_size = batch_size, shuffle = True)
在火车函数中,使用enume遍历train_set,这将为您提供索引i和图像和标签的元组,并使用Dataset中的Label Encoder进行编码。
祝好运!