Source : https://www.arxiv.org/pdf/2506.10139
Ce document introduit l’Optimisation de la Cohérence Interne (ICM), un nouvel algorithme d’apprentissage non supervisé qui permet aux modèles de langage (LM) de s’auto-affiner sans nécessiter de supervision humaine externe. L’ICM génère des étiquettes en maximisant la prévisibilité mutuelle et la cohérence logique au sein de l’ensemble de données, surpassant ainsi souvent la performance des modèles entraînés avec une supervision humaine ou des étiquettes générées par la foule sur des tâches comme la vérification mathématique et l’évaluation de la vérité. La recherche démontre que cette méthode peut même améliorer les LM de pointe, comme Claude 3.5 Haiku, en créant des modèles de récompense et des assistants plus performants que leurs homologues supervisés par des humains. Cependant, l’efficacité de l’ICM dépend de la saliency du concept dans le modèle pré-entraîné et est limitée par la taille de la fenêtre de contexte du modèle.