Hallucination
Core Concept
Definition
The phenomenon where AI models generate plausible-sounding but factually incorrect or fabricated information. Hallucinations are a major challenge for LLMs. Techniques like RAG, grounding, and RLHF help reduce them, but they are not fully eliminated.
In French
Hallucination — Réponse fausse ou inventée par un modèle IA, présentée avec assurance comme si elle était factuelle. Les hallucinations sont un défi majeur des LLM. Des techniques comme le RAG, le grounding et le RLHF aident à les réduire, mais elles ne sont pas totalement éliminées.
Related terms
🛠️ Related tools
Explore the full glossary
Discover all artificial intelligence terms in our glossary.