Descente de gradient
Technique
Définition
Méthode d’optimisation itérative utilisée pour minimiser la fonction d’erreur lors de l’entraînement d’un modèle. C’est l’algorithme fondamental qui permet aux réseaux de neurones d’apprendre en ajustant progressivement leurs poids.
En anglais
Gradient Descent — An iterative optimization algorithm that minimizes the loss function by updating model parameters in the direction of the steepest descent of the gradient. It is the fundamental algorithm enabling neural networks to learn.
Termes associés
Apprentissage par renforcement
Apprentissage profond
Attention (mécanisme d’)
Benchmark
Classification
Clustering
Explorer le glossaire complet
Découvrez tous les termes de l’intelligence artificielle dans notre glossaire.