Distillation
Technique
Definition
A model compression technique where a smaller student model is trained to replicate the behavior of a larger teacher model, preserving performance with fewer resources. Essential for mobile and edge deployment.
In French
Distillation — Technique pour transférer les connaissances d’un grand modèle vers un modèle plus petit et plus rapide. Le modèle élève apprend à reproduire les sorties du modèle professeur, préservant les performances avec moins de ressources. Essentiel pour le déploiement sur mobile et edge.
Related terms
Explore the full glossary
Discover all artificial intelligence terms in our glossary.