Skip to main content
⚙️

Gradient Descent

Technique

⚙️ Technique 🌐 Descente de gradient

Definition

An iterative optimization algorithm that minimizes the loss function by updating model parameters in the direction of the steepest descent of the gradient. It is the fundamental algorithm enabling neural networks to learn.

In French

Descente de gradient — Méthode d’optimisation itérative utilisée pour minimiser la fonction d’erreur lors de l’entraînement d’un modèle. C’est l’algorithme fondamental qui permet aux réseaux de neurones d’apprendre en ajustant progressivement leurs poids.

Related terms

⚙️
Reinforcement Learning
⚙️
Deep Learning
⚙️
Attention Mechanism
⚙️
Benchmark
⚙️
Classification
⚙️
Clustering

Explore the full glossary

Discover all artificial intelligence terms in our glossary.