Epoch
Concept fondamental
Définition
Un passage complet à travers l’ensemble des données d’entraînement lors de l’apprentissage d’un modèle. Le nombre d’epochs est un hyperparamètre crucial : trop peu mène au sous-apprentissage, trop mène au surapprentissage.
En anglais
Epoch — One complete pass through the entire training dataset during model learning. The number of epochs is a crucial hyperparameter: too few leads to underfitting, too many leads to overfitting.
Termes associés
Explorer le glossaire complet
Découvrez tous les termes de l’intelligence artificielle dans notre glossaire.