J'ai créé un réseau neuronal à convolution profonde pour classer les pixels individuels d'une image. Mes données de formation seront toujours de la même taille (32x32x7), mais mes données de test peuvent être de n'importe quelle taille.
Actuellement, mon modèle ne fonctionne que sur des images de même taille. J'ai utilisé le mnist de tensorflow. tutorial largement pour m'aider à construire mon modèle. Dans ce tutoriel, nous n'utilisons que des images 28x28. Comment le modèle mniste suivant pourrait-il être modifié pour accepter des images de toute taille ?
x = tf.placeholder(tf.float32, shape=[None, 784])
y_ = tf.placeholder(tf.float32, shape=[None, 10])
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
x_image = tf.reshape(x, [-1, 28, 28, 1])
Pour rendre les choses un peu plus compliquées, mon modèle comporte des convolutions de transposition où la forme de la sortie doit être spécifiée. Comment puis-je ajuster la ligne de code suivante pour que la convolution de transposition produise une forme de la même taille que l'entrée.
DeConnv1 = tf.nn.conv3d_transpose(layer1, filter = w, output_shape = [1,32,32,7,1], strides = [1,2,2,2,1], padding = 'SAME')