Source : https://arxiv.org/abs/2506.09669
Ce document de recherche, soumis sur arXiv, se concentre sur la détection des limites de connaissance des grands modèles linguistiques (LLM). Les auteurs, Lihu Chen et Gaël Varoquaux, proposent une nouvelle méthode sans entraînement appelée “Confiance Interne” pour évaluer si un LLM peut répondre à une requête donnée sans générer de jetons. Cette approche vise à permettre aux modèles de prendre des décisions adaptatives, comme l’abstention ou l’engagement dans une réflexion plus approfondie, ce qui contribue à un développement d’IA plus efficace et fiable. Les résultats préliminaires sur des tâches de QA factuelles et de raisonnement mathématique suggèrent que cette méthode surpasse les références existantes et peut réduire les coûts d’inférence. Le document est actuellement en cours de développement, avec une première version soumise en juin 2025.