Source: https://arxiv.org/abs/2506.06166v1
Ce document de recherche, intitulé “L’hypothèse du verrouillage : Stagnation par l’algorithme”, explore la dynamique par laquelle les grands modèles linguistiques (LLM) pourraient involontairement conduire à une réduction de la diversité des croyances et potentiellement à l’enracinement de fausses informations. Les auteurs, Tianyi Alex Qiu et ses collaborateurs, proposent que les LLM créent une boucle de rétroaction en forme de chambre d’écho en apprenant les croyances humaines, en les renforçant dans le contenu généré et en les réabsorbant. Cette hypothèse est ensuite testée de manière empirique par des simulations basées sur des agents LLM et des données d’utilisation réelles de GPT. Les résultats suggèrent des chutes brusques et durables de la diversité suite à de nouvelles itérations de GPT, ce qui corrobore le concept d’une boucle de rétroaction homme-IA.