Source: https://arxiv.org/abs/2506.14641
Cet article de recherche explore l’efficacité du “Chain-of-Thought” (CoT) dans les modèles de langage de grande taille (LLM), notamment en ce qui concerne l’apprentissage en contexte (ICL) pour les tâches mathématiques. Les auteurs remettent en question l’idée que l’ajout d’exemples CoT améliore toujours les performances de raisonnement des modèles récents et plus puissants. Leurs expériences suggèrent que pour des modèles comme la série Qwen2.5, le “Zero-Shot CoT” est souvent plus efficace que le “Few-Shot CoT”, et que les exemples CoT servent principalement à aligner le format de sortie. De plus, des exemples CoT améliorés n’ont pas non plus amélioré la capacité de raisonnement, indiquant que les modèles ont tendance à ignorer les exemples et à se concentrer sur les instructions. Ces résultats appellent à une réévaluation du paradigme ICL et de la définition des exemples dans le raisonnement mathématique.