

Source : https://arxiv.org/abs/2506.02153
Le document de recherche, arXiv:2506.02153, explore l’idée que les petits modèles de langage (SLM), plutôt que les grands modèles de langage (LLM), représentent l’avenir de l’IA agentique. Il soutient que les SLM sont plus efficaces et plus économiques pour les systèmes d’IA agentiques effectuant des tâches répétitives et spécialisées. Les auteurs, dont Peter Belcak, soulignent l’importance des SLM pour réduire les coûts de déploiement et suggèrent des systèmes hétérogènes où différents modèles sont invoqués pour des capacités conversationnelles. Le texte aborde également les obstacles potentiels à l’adoption des SLM et propose un algorithme de conversion de LLM en SLM. En fin de compte, cette position cherche à stimuler la discussion sur l’utilisation efficiente des ressources en IA.