La couche de sortie de mon réseau de neurones (à 3 couches) utilise la fonction sigmoïde comme activation qui produit des sorties uniquement dans la plage [0-1]. Cependant, si je veux l'entraîner pour des sorties qui vont au-delà de [0-1], disons dans les milliers, que devrais-je faire?
Par exemple si je veux entraîner
entrée ----> sortie
0 0 ------> 0
0 1 ------> 1000
1000 1 ----> 1
1 1 -------> 0
Mon programme fonctionne pour les portes logiques AND, OR, XOR, etc. car les entrées et les sorties sont toutes en binaire.
Il y a eu des suggestions d'utiliser,
Activation:
y = lambda*(abs(x)1/(1+exp(-1(x))))
Dérivée de l'activation:
lambda*(abs(y)y(1-y))
Cela n'a pas convergé pour le schéma d'entraînement mentionné (si je n'ai rien fait de mal). Y a-t-il des suggestions s'il vous plaît?