Hallucination
Concept fondamental
Définition
Réponse fausse ou inventée par un modèle IA, présentée avec assurance comme si elle était factuelle. Les hallucinations sont un défi majeur des LLM. Des techniques comme le RAG, le grounding et le RLHF aident à les réduire, mais elles ne sont pas totalement éliminées.
En anglais
Hallucination — The phenomenon where AI models generate plausible-sounding but factually incorrect or fabricated information. Hallucinations are a major challenge for LLMs. Techniques like RAG, grounding, and RLHF help reduce them, but they are not fully eliminated.
Termes associés
Explorer le glossaire complet
Découvrez tous les termes de l’intelligence artificielle dans notre glossaire.