Skip to main content
💡

Hallucination

Core Concept

💡 Core Concept 🌐 Hallucination

Definition

The phenomenon where AI models generate plausible-sounding but factually incorrect or fabricated information. Hallucinations are a major challenge for LLMs. Techniques like RAG, grounding, and RLHF help reduce them, but they are not fully eliminated.

In French

Hallucination — Réponse fausse ou inventée par un modèle IA, présentée avec assurance comme si elle était factuelle. Les hallucinations sont un défi majeur des LLM. Des techniques comme le RAG, le grounding et le RLHF aident à les réduire, mais elles ne sont pas totalement éliminées.

Related terms

💡
AI Agent
💡
Algorithm
💡
Machine Learning
💡
Algorithmic Bias
💡
Big Data
💡
Computer Vision

🛠️ Related tools

Explore the full glossary

Discover all artificial intelligence terms in our glossary.