Distillation
Technique
Définition
Technique pour transférer les connaissances d’un grand modèle vers un modèle plus petit et plus rapide. Le modèle élève apprend à reproduire les sorties du modèle professeur, préservant les performances avec moins de ressources. Essentiel pour le déploiement sur mobile et edge.
En anglais
Distillation — A model compression technique where a smaller student model is trained to replicate the behavior of a larger teacher model, preserving performance with fewer resources. Essential for mobile and edge deployment.
Termes associés
Apprentissage par renforcement
Apprentissage profond
Attention (mécanisme d’)
Benchmark
Classification
Clustering
Explorer le glossaire complet
Découvrez tous les termes de l’intelligence artificielle dans notre glossaire.