Keras提供了两套后端,Theano和Tensorflow,不同的后端使用时维度顺序dim_ordering会有冲突。
对于一张224*224的彩色图片表示问题,theano使用的是th格式,维度顺序是(3,224,224),即通道维度在前,Caffe采取的也是这种方式。而Tensorflow使用的是tf格式,维度顺序是(224,224,3),即通道维度在后。
Keras默认使用的是Tensorflow。我们在导入模块的时候可以进行查看,也可以切换后端。
为了代码可以在两种后端兼容,可以通过data_format参数进行维度顺序的设定,data_format='channels_first',对应“th”,data_format='channels_last',对应“tf”。
补充知识:Tensorflow Keras 中input_shape引发的维度顺序冲突问题(NCHW与NHWC)
以tf.keras.Sequential构建卷积层为例:
tf.keras.layers.Conv2D(10, 3, input_shape=(2, 9, 9),padding='same',activation=tf.nn.relu,kernel_initializer='glorot_normal', bias_initializer='glorot_normal'),
这是一个简单的卷积层的定义,主要看input_shape参数:
这是用来指定卷积层输入形状的参数,由于Keras提供了两套后端,Theano和Tensorflow,不同的后端使用时对该参数所指代的维度顺序dim_ordering会有冲突。
Theano(th):
NCHW:顺序是 [batch, in_channels, in_height, in_width]
Tensorflow(tf):keras默认使用这种方式
NHWC:顺序是 [batch, in_height, in_width, in_channels]
即对于上述input_shape=(2, 9, 9)来说:我们先忽略batch,2会被解析为通道数,矩阵大小为9*9,符合我们预期。而tf会将矩阵大小解析为2 * 9 ,且最后一位9代表通道数,与预期不符。
解决
法一:
在卷积层定义中加入参数来让keras在两种后端之间切换:
data_format='channels_first':代表th
data_format='channels_last':代表tf
但是该法在某些时候不成功会报错:
或许是cpu电脑导致的,只支持NHWC即tf模式。
只能修改相应文件的配置来使其支持NCHW,参考这里
法二:(推荐)
使用tf.transpose函数进行高维数据的转置(维度大于2,轴的转换)
如将上述(2,9,9)转为(9,9,2)并且是以2为通道数,即矩阵为9*9,而不是像reshape函数简单的调整维度,若使用reshape函数来转换,只会得到通道数为9,矩阵为9 * 2的数据。
tf.transpose(待转矩阵,(1,2,0))
解释:
其中0,1,2…是原矩阵维度从左到右轴的标号,即(2,9,9)中三个维度分别对应标号0,1,2。而调整过后将标号顺序变为1,2,0 即是把表通道数的轴置于最后,这样转置后的矩阵就满足了keras的默认tf后端。即可正常训练。
以上这篇使用keras时input_shape的维度表示问题说明就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持python博客。
Powered By python教程网 鲁ICP备18013710号
python博客 - 小白学python最友好的网站!