Aller au contenu principal
💡

Hallucination

Concept fondamental

💡 Concept fondamental 🌐 Hallucination

Définition

Réponse fausse ou inventée par un modèle IA, présentée avec assurance comme si elle était factuelle. Les hallucinations sont un défi majeur des LLM. Des techniques comme le RAG, le grounding et le RLHF aident à les réduire, mais elles ne sont pas totalement éliminées.

En anglais

Hallucination — The phenomenon where AI models generate plausible-sounding but factually incorrect or fabricated information. Hallucinations are a major challenge for LLMs. Techniques like RAG, grounding, and RLHF help reduce them, but they are not fully eliminated.

Termes associés

💡
Agent IA
💡
Algorithme
💡
Apprentissage automatique
💡
Biais algorithmique
💡
Big Data
💡
Computer Vision

Explorer le glossaire complet

Découvrez tous les termes de l’intelligence artificielle dans notre glossaire.