Reinforcement Learning
Technique
Definition
A learning paradigm where an agent learns to make optimal decisions by interacting with an environment and receiving reward or penalty signals. The agent optimizes its strategy to maximize cumulative reward. This technique powers game-playing AI (AlphaGo), robotics, and LLM alignment through RLHF.
In French
Apprentissage par renforcement — Méthode d’apprentissage où un agent apprend par essais, erreurs et récompenses dans un environnement. L’agent reçoit des signaux positifs ou négatifs selon ses actions, et optimise sa stratégie pour maximiser la récompense cumulée. Cette technique est utilisée dans les jeux (AlphaGo), la robotique, et l’alignement des LLM via RLHF.
Related terms
Explore the full glossary
Discover all artificial intelligence terms in our glossary.