Vous pouvez facilement le faire en utilisant le modèle fonctionnel.
Il s'agit d'un petit exemple que vous pouvez développer :
import numpy as np
from keras.models import Model
from keras.layers import Dense, Input
X = np.empty(shape=(1000,100))
Y1 = np.empty(shape=(1000))
Y2 = np.empty(shape=(1000,2))
Y3 = np.empty(shape=(1000,3))
inp = Input(shape=(100,))
dense_f1 = Dense(50)
dense_f2 = Dense(20)
f = dense_f2(dense_f1(inp))
dense_g1 = Dense(1)
g1 = dense_g1(f)
dense_g2 = Dense(2)
g2 = dense_g2(f)
dense_g3 = Dense(3)
g3 = dense_g3(f)
model = Model([inp], [g1, g2, g3])
model.compile(loss=['mse', 'binary_crossentropy', 'categorical_crossentropy'], optimizer='rmsprop')
model.summary()
model.fit([X], [Y1, Y2, Y3], nb_epoch=10)
Editer :
Sur la base de vos commentaires, vous pouvez toujours créer différents modèles et écrire la boucle de formation vous-même en fonction de vos besoins de formation. Vous pouvez voir dans le model.summary()
tous les modèles partagent les couches initiales. Voici l'extension de l'exemple
model1 = Model(inp, g1)
model1.compile(loss=['mse'], optimizer='rmsprop')
model2 = Model(inp, g2)
model2.compile(loss=['binary_crossentropy'], optimizer='rmsprop')
model3 = Model(inp, g3)
model3.compile(loss=['categorical_crossentropy'], optimizer='rmsprop')
model1.summary()
model2.summary()
model3.summary()
batch_size = 10
nb_epoch=10
n_batches = X.shape[0]/batch_size
for iepoch in range(nb_epoch):
for ibatch in range(n_batches):
x_batch = X[ibatch*batch_size:(ibatch+1)*batch_size]
if ibatch%3==0:
y_batch = Y1[ibatch*batch_size:(ibatch+1)*batch_size]
model1.train_on_batch(x_batch, y_batch)
elif ibatch%3==1:
y_batch = Y2[ibatch*batch_size:(ibatch+1)*batch_size]
model2.train_on_batch(x_batch, y_batch)
else:
y_batch = Y3[ibatch*batch_size:(ibatch+1)*batch_size]
model3.train_on_batch(x_batch, y_batch)