我对使用 caffe 比较陌生,并且正在尝试创建我可以(稍后)调整的最小工作示例。我在使用带有 MNIST 数据的 caffe 示例时没有任何困难。我下载了 image-net 数据 (ILSVRC12) 并使用 caffe 的工具将其转换为 lmdb 数据库:

$CAFFE_ROOT/build/install/bin/convert_imageset -shuffle -encoded=true top_level_data_dir/ fileNames.txt lmdb_name

创建一个包含编码 (jpeg) 图像数据的 lmdb。原因是编码后的 lmdb 大约为 64GB,而未编码的大约为 240GB。

我描述网络的 .prototxt 文件是最小的(一对内部产品层,主要是从 MNIST 示例中借来的——这里不是为了准确,我只是想要一些工作)。
name: "example"
layer {
  name: "imagenet"
  type: "Data"
  top: "data"
  top: "label"
  include {
    phase: TRAIN
  }
  transform_param {
    scale: 0.00390625
  }
  data_param {
    source: "train-lmdb"
    batch_size: 100
    backend: LMDB
  }
}
layer {
  name: "imagenet"
  type: "Data"
  top: "data"
  top: "label"
  include {
    phase: TEST
  }
  transform_param {
    scale: 0.00390625
  }
  data_param {
    source: "test-lmdb"
    batch_size: 100
    backend: LMDB
  }
}
layer {
  name: "ip1"
  type: "InnerProduct"
  bottom: "data"
  top: "ip1"
  param {
    lr_mult: 1
  }
  param {
    lr_mult: 2
  }
  inner_product_param {
    num_output: 1000
    weight_filler {
      type: "xavier"
    }
    bias_filler {
      type: "constant"
    }
  }
}
layer {
  name: "relu1"
  type: "ReLU"
  bottom: "ip1"
  top: "ip1"
}
layer {
  name: "ip2"
  type: "InnerProduct"
  bottom: "ip1"
  top: "ip2"
  param {
    lr_mult: 1
  }
  param {
    lr_mult: 2
  }
  inner_product_param {
    num_output: 1000
    weight_filler {
      type: "xavier"
    }
    bias_filler {
      type: "constant"
    }
  }
}
layer {
  name: "accuracy"
  type: "Accuracy"
  bottom: "ip2"
  bottom: "label"
  top: "accuracy"
  include {
    phase: TEST
  }
}
layer {
  name: "loss"
  type: "SoftmaxWithLoss"
  bottom: "ip2"
  bottom: "label"
  top: "loss"
}

当 train-lmdb 未编码时,这个 .prototxt 文件工作正常(准确性很差,但 caffe 不会崩溃)。但是,如果 train-lmdb 已编码,则会出现以下错误:
data_transformer.cpp:239] Check failed: channels == img_channels (3 vs. 1)

问题: 是否必须在 .prototxt 文件中设置一些“标志”来指示 train-lmdb 是编码图像? (可能必须为测试数据层 test-lmdb 提供相同的标志。)

一点研究:

用谷歌搜索我发现了一个看起来很有希望的 resolved issue 。但是,将 'force_encoded_color' 设置为 true 并没有解决我的问题。

我还发现 this 答案对创建 lmdb(特别是启用编码的说明)非常有帮助,但是,没有提到应该做什么以便 caffe 知道图像已编码。

最佳答案

你得到的错误信息:



意味着 caffe 数据转换器期望输入有 3 个 channels(即彩色图像),但得到的图像只有 1 个 img_channels(即灰度图像)。

看 ar caffe.proto 看起来你应该在 transformation_param 设置参数:

layer {
  name: "imagenet"
  type: "Data"
  top: "data"
  top: "label"
  include {
    phase: TRAIN
  }
  transform_param {
    scale: 0.00390625
    force_color: true  ##  try this
  }
  data_param {
    source: "train-lmdb"
    batch_size: 100
    backend: LMDB
    force_encoded_color: true  ## cannot hurt...
  }
}

关于neural-network - 从caffe中的lmdb数据库读取编码图像数据,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/38896608/

10-12 12:49