Il semble que tf.get_variable
n'accepte pas un Tensor
pour la forme, seulement int
. Ceci est différent tf.Variable
qui peut accepter Tensors
. Est-ce correct, et si oui, existe-t-il une solution de contournement pour obtenir tf.get_variable
pour fonctionner lorsque la forme est un Tensor
? Je ne veux pas courir session
à ce stade de la construction du graphe, car cela compliquerait beaucoup de choses en aval.
J'essaie d'utiliser les liaisons cuDNN pour les RNN, ce qui implique d'appeler params_size()
sur un modèle créé à l'aide de CudnnLSTM
. Cela renvoie le nombre de paramètres à conserver dans le tampon de paramètres sous la forme de Tensor
qui est ensuite utilisé pour créer la variable qui contient les paramètres. Au lieu d'utiliser tf.Variable
avec tous ses avertissements, j'aimerais utiliser tf.get_variable
pour contenir les valeurs des paramètres, de sorte que je puisse facilement les initialiser en utilisant tous les divers initialisateurs compatibles avec tf.get_variable
etc. Toutes les nouvelles machines sont construites autour tf.get_variable
et de devoir revenir au niveau inférieur. tf.Variable
est très encombrant. Cela semble être une limitation très étrange de tf.get_variable
de ne pas accepter Tensors
quand tf.Variable
fait.