Le document évalue de manière critique la sécurité du code d’application web généré par les grands modèles linguistiques (LLM). En utilisant des paramètres de sécurité prédéfinis, l’analyse révèle que les LLM, bien qu’utiles pour le développement, génèrent souvent du code avec des vulnérabilités critiques dans des domaines tels que l’authentification, la gestion des sessions et la validation des entrées. Bien que certains modèles intègrent des mesures de sécurité limitées, aucun ne répond pleinement aux meilleures pratiques de l’industrie. Les conclusions soulignent la nécessité d’une expertise humaine pour examiner et sécuriser le code généré par les LLM et préconisent des cadres d’évaluation de sécurité robustes pour améliorer la fiabilité du code LLM dans des applications réelles.