Gradient Descent
Technique
Definition
An iterative optimization algorithm that minimizes the loss function by updating model parameters in the direction of the steepest descent of the gradient. It is the fundamental algorithm enabling neural networks to learn.
In French
Descente de gradient — Méthode d’optimisation itérative utilisée pour minimiser la fonction d’erreur lors de l’entraînement d’un modèle. C’est l’algorithme fondamental qui permet aux réseaux de neurones d’apprendre en ajustant progressivement leurs poids.
Related terms
Explore the full glossary
Discover all artificial intelligence terms in our glossary.