La documentation dit tout:
Pour la distribution normale tronquée:
Les valeurs générées suivent une distribution normale avec une moyenne spécifiée
et l'écart-type, sauf que les valeurs dont l'ampleur est plus
de 2 écarts-types de la moyenne sont supprimés et re-cueillies.
Très probablement, il est facile de comprendre la différence, en traçant le graphe de vous-même (%magie est parce que j'utilise jupyter portable):
import tensorflow as tf
import matplotlib.pyplot as plt
%matplotlib inline
n = 500000
A = tf.truncated_normal((n,))
B = tf.random_normal((n,))
with tf.Session() as sess:
a, b = sess.run([A, B])
Et maintenant
plt.hist(a, 100, (-4.2, 4.2));
plt.hist(b, 100, (-4.2, 4.2));
Le point pour l'utilisation normale tronquée est de surmonter la saturation de la tome des fonctions comme sigmoïde (où, si la valeur est trop grande/petite, le neurone s'arrête d'apprentissage).