Améliorations du modèle Tensorflow

Prise de notes sur les modèles de prédiction.

Augmentation du nombre d'unités LSTM

Utilisation de EarlyStopping

EarlyStopping est une technique qui arrête l'entraînement avant la fin des époques, si la performance sur les données de validation cesse de s'améliorer, ce qui permet de prévenir le surapprentissage et d'économiser du temps de calcul.

L'un des paramètres de l'EarlyStopping est la patience. 

Il est inutile d'augmenter la patience pour arriver au bout des EPOCHS.

Démonstration :

EarlyStopping patience = 18

En augmentant la patience :

EarlyStopping patience = 32

Le nombre d'EPOCH augmente mais la prédiction n'est pas meilleure et le Score reste inchangé.

Dans l'algo 6 - TimeDistributed( Flatten() ) ou Reshape( (x_train.shape[1], -1) )

Amélioration de l'algo 6 en remplaçant la couche Flatten par un Reshape

Flatten

Reshape

Reshape

IL y a une meilleure imitation du signal avec Reshape qui au lieu de Flaten ne fait rien que de retailler le tenseur pour la couche suivante.

Augmentation du nombre de LSTM

Lorsque j'augmente le nombre d'unités LSTM j'augmente la capacité du modèle à apprendre les représentations complexes des données d'entrainement, l'erreur sur l'ensemble de validation cesse de diminuer.

Early Stopping qui surveille la perte sur l'ensemble de validation (val_loss), le modèle apprend plus vite et atteint un minimum de perte sur l'ensemble de validation plus tôt, ce qui déclenche l'early stopping après un nombre réduit d'epochs.


Commentaires

Posts les plus consultés de ce blog

BENETEAU

ADOCIA

Plan de traiding

OVH Cloud

Analyse technique des marchés

Ordres de bourse

VALNEVA - FR0004056851 - VLA

ATOS