我对使用 caffe 比较陌生,并且正在尝试创建我可以(稍后)调整的最小工作示例。我在使用带有 MNIST 数据的 caffe 示例时没有任何困难。我下载了 image-net 数据 (ILSVRC12) 并使用 caffe 的工具将其转换为 lmdb 数据库:
$CAFFE_ROOT/build/install/bin/convert_imageset -shuffle -encoded=true top_level_data_dir/ fileNames.txt lmdb_name
创建一个包含编码 (jpeg) 图像数据的 lmdb。原因是编码后的 lmdb 大约为 64GB,而未编码的大约为 240GB。
我描述网络的 .prototxt 文件是最小的(一对内部产品层,主要是从 MNIST 示例中借来的——这里不是为了准确,我只是想要一些工作)。
name: "example"
layer {
name: "imagenet"
type: "Data"
top: "data"
top: "label"
include {
phase: TRAIN
}
transform_param {
scale: 0.00390625
}
data_param {
source: "train-lmdb"
batch_size: 100
backend: LMDB
}
}
layer {
name: "imagenet"
type: "Data"
top: "data"
top: "label"
include {
phase: TEST
}
transform_param {
scale: 0.00390625
}
data_param {
source: "test-lmdb"
batch_size: 100
backend: LMDB
}
}
layer {
name: "ip1"
type: "InnerProduct"
bottom: "data"
top: "ip1"
param {
lr_mult: 1
}
param {
lr_mult: 2
}
inner_product_param {
num_output: 1000
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}
layer {
name: "relu1"
type: "ReLU"
bottom: "ip1"
top: "ip1"
}
layer {
name: "ip2"
type: "InnerProduct"
bottom: "ip1"
top: "ip2"
param {
lr_mult: 1
}
param {
lr_mult: 2
}
inner_product_param {
num_output: 1000
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}
layer {
name: "accuracy"
type: "Accuracy"
bottom: "ip2"
bottom: "label"
top: "accuracy"
include {
phase: TEST
}
}
layer {
name: "loss"
type: "SoftmaxWithLoss"
bottom: "ip2"
bottom: "label"
top: "loss"
}
当 train-lmdb 未编码时,这个 .prototxt 文件工作正常(准确性很差,但 caffe 不会崩溃)。但是,如果 train-lmdb 已编码,则会出现以下错误:
data_transformer.cpp:239] Check failed: channels == img_channels (3 vs. 1)
问题: 是否必须在 .prototxt 文件中设置一些“标志”来指示 train-lmdb 是编码图像? (可能必须为测试数据层 test-lmdb 提供相同的标志。)
一点研究:
用谷歌搜索我发现了一个看起来很有希望的 resolved issue 。但是,将
'force_encoded_color'
设置为 true 并没有解决我的问题。我还发现 this 答案对创建 lmdb(特别是启用编码的说明)非常有帮助,但是,没有提到应该做什么以便 caffe 知道图像已编码。
最佳答案
你得到的错误信息:
意味着 caffe 数据转换器期望输入有 3 个 channels
(即彩色图像),但得到的图像只有 1 个 img_channels
(即灰度图像)。
看 ar caffe.proto
看起来你应该在 transformation_param
设置参数:
layer {
name: "imagenet"
type: "Data"
top: "data"
top: "label"
include {
phase: TRAIN
}
transform_param {
scale: 0.00390625
force_color: true ## try this
}
data_param {
source: "train-lmdb"
batch_size: 100
backend: LMDB
force_encoded_color: true ## cannot hurt...
}
}
关于neural-network - 从caffe中的lmdb数据库读取编码图像数据,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/38896608/