

Source : https://www.arxiv.org/pdf/2506.12115
Ces sources explorent une nouvelle approche pour améliorer les capacités de raisonnement des grands modèles linguistiques (LLM) en les dotant d’outils cognitifs modulaires. Inspirés par la psychologie cognitive, ces outils encapsulent des opérations de raisonnement spécifiques comme la compréhension des questions, le rappel de connaissances associées, l’examen de réponses et le retour en arrière. Contrairement aux méthodes de “chaîne de pensée” monolithiques ou au réglage par apprentissage par renforcement, cette stratégie permet aux LLM de choisir et d’exécuter ces fonctions internes de manière flexible, réduisant les interférences et augmentant la transparence du raisonnement. Les résultats sur des tâches mathématiques complexes démontrent une amélioration significative des performances, suggérant que le pré-entraînement des LLM confère des capacités de raisonnement latentes qui peuvent être révélées par des flux de travail structurés plutôt que de nécessiter un entraînement post-modèle intensif.