Ils sont presque identiques, mais il y a une petite différence dans la structure des entrées et des sorties. De la documentation :
tf.nn.dynamic_rnn
Cette fonction est fonctionnellement identique à la fonction rnn
ci-dessus, mais >réalise un déroulage entièrement dynamique des entrées.
Contrairement à rnn
l'entrée n'est pas une liste Python de tenseurs, un pour chaque image. chaque image. Au lieu de cela, les entrées peuvent être un seul tenseur où le temps maximum est soit le premier ou le deuxième time_major
). Sinon, il peut s'agir d'un tuple (éventuellement imbriqué) de Tenseurs, chacun d'entre eux ayant des dimensions de lot et de temps correspondantes. La sortie correspondante de sortie correspondante est soit un Tenseur unique ayant le même nombre de nombre d'étapes temporelles et la même taille de lot, soit un tuple (éventuellement imbriqué) de tels tenseurs, correspondant à la dimension imbriquée. correspondant à la structure imbriquée de cell.output_size
.
Pour plus de détails, consultez source .
1 votes
Voir aussi ce billet de SO stackoverflow.com/q/42497216/3924118 dans lequel l'auteur s'interroge sur la fonction équivalente de
tf.nn.rnn
pour les versions plus récentes de TensorFlow, ce qui semble êtretf.nn.static_rnn
.