Les outils de codage IA augmentent la vitesse mais posent des risques de sécurité, selon un rapport
Le 30/01/2026 — Par Francky SABITI
Les outils de codage IA augmentent la vitesse mais posent des risques de sécurité, selon un rapport
Les assistants de codage IA sont devenus quasi omniprésents dans le développement logiciel en entreprise, mais leur adoption rapide s'accompagne de coûts cachés, selon une nouvelle étude publiée mercredi par Opsera, une plateforme DevOps propulsée par l'IA.
Le « Rapport de référence 2026 sur l'impact du codage IA » de l'entreprise, qui analyse les données de plus de 250 000 développeurs, révèle que si les flux de travail assistés par IA permettent d'obtenir en moyenne un délai de demande de tirage 48 à 58 % plus rapide, ils introduisent également 15 à 18 % de vulnérabilités de sécurité supplémentaires par ligne de code par rapport au code écrit par des humains. Le rapport a également constaté que les outils IA augmentent la duplication de code de 10,5 % à 13,5 %.
Une adoption quasi universelle révèle un déficit de confiance
Fin 2025, les assistants de codage par IA ont atteint un taux d'adoption de 90 % dans les entreprises, les secteurs de la technologie et des startups étant en tête, tandis que la santé et l'assurance accusent un retard de 9 à 12 points de pourcentage en raison de contraintes réglementaires.
GitHub Copilot domine le marché avec 60 à 65 % de parts, selon le rapport. L'outil a dépassé les 20 millions d'utilisateurs cumulés et a été adopté par 90 % des entreprises du Fortune 100, avec plus de 50 000 organisations qui l'utilisent désormais.
Malgré cette adoption généralisée, les développeurs restent sceptiques vis-à-vis du code généré par l'IA. Les demandes de fusion (pull requests) générées par l'IA attendent 4,6 fois plus longtemps pour être examinées que celles écrites par des humains, révélant ce qu'Opsera appelle un « déficit de confiance ». Cette observation rejoint une récente enquête de Sonar selon laquelle 96 % des développeurs ne font pas entièrement confiance au code généré par l'IA, et pourtant seulement 48 % déclarent le vérifier systématiquement avant de le valider.
Défis de gouvernance et dépenses inutiles
Le rapport a révélé qu'environ 21 % des licences d'outils d'IA sont sous-utilisées, ce qui entraîne des dépenses inutiles et des contributions au code non mesurées. Les organisations dépourvues de cadres de gouvernance font face à des risques accrus en matière de livraison et à une dette technique.
« Le développement assisté par IA ne consiste pas seulement à accélérer la création de code ; il s'agit de la manière dont il apporte une valeur commerciale tangible sans introduire de risques non maîtrisés », a déclaré Kumar Chivukula, PDG et cofondateur d'Opsera.
L'industrie se prépare face aux préoccupations de sécurité
Les conclusions en matière de sécurité du rapport d'Opsera reflètent des préoccupations plus larges au sein de l'industrie. Une étude de Veracode a révélé que l'IA produit du code fonctionnel mais introduit des vulnérabilités de sécurité dans 45 % des cas. Des recherches du Futurum Group ont montré que 53 % des organisations ont découvert au moins une vulnérabilité critique ou de haute gravité dans du code généré par l'IA au cours des 12 derniers mois.
Des chercheurs en sécurité ont également averti que les outils de codage par IA créent de nouvelles surfaces d'attaque. Une étude de décembre a identifié plus de 30 failles de sécurité dans les principaux environnements de développement assistés par IA, notamment des vulnérabilités qui pourraient permettre l'exfiltration de données et l'exécution de code à distance.
Le rapport d'Opsera souligne que les organisations dotées de pipelines CI/CD automatisés tirent une plus grande valeur de leurs investissements dans l'IA, tandis que celles qui utilisent des flux de travail manuels sont confrontées à davantage de goulots d'étranglement et de retouches. Alors que le domaine évolue vers des agents autonomes, le rapport avertit que les entreprises doivent se préparer à une complexité accrue et garantir une gouvernance solide pour assurer leur succès à long terme.
Le « Rapport de référence 2026 sur l'impact du codage IA » de l'entreprise, qui analyse les données de plus de 250 000 développeurs, révèle que si les flux de travail assistés par IA permettent d'obtenir en moyenne un délai de demande de tirage 48 à 58 % plus rapide, ils introduisent également 15 à 18 % de vulnérabilités de sécurité supplémentaires par ligne de code par rapport au code écrit par des humains. Le rapport a également constaté que les outils IA augmentent la duplication de code de 10,5 % à 13,5 %.
Une adoption quasi universelle révèle un déficit de confiance
Fin 2025, les assistants de codage par IA ont atteint un taux d'adoption de 90 % dans les entreprises, les secteurs de la technologie et des startups étant en tête, tandis que la santé et l'assurance accusent un retard de 9 à 12 points de pourcentage en raison de contraintes réglementaires.
GitHub Copilot domine le marché avec 60 à 65 % de parts, selon le rapport. L'outil a dépassé les 20 millions d'utilisateurs cumulés et a été adopté par 90 % des entreprises du Fortune 100, avec plus de 50 000 organisations qui l'utilisent désormais.
Malgré cette adoption généralisée, les développeurs restent sceptiques vis-à-vis du code généré par l'IA. Les demandes de fusion (pull requests) générées par l'IA attendent 4,6 fois plus longtemps pour être examinées que celles écrites par des humains, révélant ce qu'Opsera appelle un « déficit de confiance ». Cette observation rejoint une récente enquête de Sonar selon laquelle 96 % des développeurs ne font pas entièrement confiance au code généré par l'IA, et pourtant seulement 48 % déclarent le vérifier systématiquement avant de le valider.
Défis de gouvernance et dépenses inutiles
Le rapport a révélé qu'environ 21 % des licences d'outils d'IA sont sous-utilisées, ce qui entraîne des dépenses inutiles et des contributions au code non mesurées. Les organisations dépourvues de cadres de gouvernance font face à des risques accrus en matière de livraison et à une dette technique.
« Le développement assisté par IA ne consiste pas seulement à accélérer la création de code ; il s'agit de la manière dont il apporte une valeur commerciale tangible sans introduire de risques non maîtrisés », a déclaré Kumar Chivukula, PDG et cofondateur d'Opsera.
L'industrie se prépare face aux préoccupations de sécurité
Les conclusions en matière de sécurité du rapport d'Opsera reflètent des préoccupations plus larges au sein de l'industrie. Une étude de Veracode a révélé que l'IA produit du code fonctionnel mais introduit des vulnérabilités de sécurité dans 45 % des cas. Des recherches du Futurum Group ont montré que 53 % des organisations ont découvert au moins une vulnérabilité critique ou de haute gravité dans du code généré par l'IA au cours des 12 derniers mois.
Des chercheurs en sécurité ont également averti que les outils de codage par IA créent de nouvelles surfaces d'attaque. Une étude de décembre a identifié plus de 30 failles de sécurité dans les principaux environnements de développement assistés par IA, notamment des vulnérabilités qui pourraient permettre l'exfiltration de données et l'exécution de code à distance.
Le rapport d'Opsera souligne que les organisations dotées de pipelines CI/CD automatisés tirent une plus grande valeur de leurs investissements dans l'IA, tandis que celles qui utilisent des flux de travail manuels sont confrontées à davantage de goulots d'étranglement et de retouches. Alors que le domaine évolue vers des agents autonomes, le rapport avertit que les entreprises doivent se préparer à une complexité accrue et garantir une gouvernance solide pour assurer leur succès à long terme.
Commentaires
Aucun commentaire pour le moment.