Aller au contenu principal
⚙️

Descente de gradient

Technique

⚙️ Technique 🌐 Gradient Descent

Définition

Méthode d’optimisation itérative utilisée pour minimiser la fonction d’erreur lors de l’entraînement d’un modèle. C’est l’algorithme fondamental qui permet aux réseaux de neurones d’apprendre en ajustant progressivement leurs poids.

En anglais

Gradient Descent — An iterative optimization algorithm that minimizes the loss function by updating model parameters in the direction of the steepest descent of the gradient. It is the fundamental algorithm enabling neural networks to learn.

Termes associés

⚙️
Apprentissage par renforcement
⚙️
Apprentissage profond
⚙️
Attention (mécanisme d’)
⚙️
Benchmark
⚙️
Classification
⚙️
Clustering

Explorer le glossaire complet

Découvrez tous les termes de l’intelligence artificielle dans notre glossaire.