Aller au contenu principal
⚙️

Distillation

Technique

⚙️ Technique 🌐 Distillation

Définition

Technique pour transférer les connaissances d’un grand modèle vers un modèle plus petit et plus rapide. Le modèle élève apprend à reproduire les sorties du modèle professeur, préservant les performances avec moins de ressources. Essentiel pour le déploiement sur mobile et edge.

En anglais

Distillation — A model compression technique where a smaller student model is trained to replicate the behavior of a larger teacher model, preserving performance with fewer resources. Essential for mobile and edge deployment.

Termes associés

⚙️
Apprentissage par renforcement
⚙️
Apprentissage profond
⚙️
Attention (mécanisme d’)
⚙️
Benchmark
⚙️
Classification
⚙️
Clustering

Explorer le glossaire complet

Découvrez tous les termes de l’intelligence artificielle dans notre glossaire.