Jailbreak
Concept fondamental
Définition
Technique pour contourner les restrictions et garde-fous de sécurité implémentés dans un modèle IA. Les jailbreaks exploitent des failles dans les instructions système pour obtenir des réponses normalement interdites. La sécurisation des modèles contre ces attaques est un défi permanent.
En anglais
Jailbreak — Techniques to bypass safety restrictions and guardrails implemented in an AI model. Jailbreaks exploit system prompt vulnerabilities to obtain normally prohibited responses. Securing models against such attacks is an ongoing challenge.
Termes associés
Explorer le glossaire complet
Découvrez tous les termes de l’intelligence artificielle dans notre glossaire.