GitHub : comment les développeurs appréhendent l'IA
Comment la communauté du développement logiciel formée autour de GitHub appréhende l’intelligence artificielle ?
La question a été posée à 500 développeurs dans le cadre d’une enquête menée aux Etats-Unis par Wakefield Research pour la plateforme de développement et filiale de Microsoft.
92% des développeurs interrogés disent utiliser des outils d’intelligence artificielle à des fins de programmation (GitHub Copilot, Alphacode de DeepMind, Polycoder, AWS CodeWhisperer…). Et ce dans le cadre de leur activité professionnelle et hors de ce cadre.
IA et mesure de la performance
En moyenne, les répondants travaillent avec une vingtaine d’autres ingénieurs sur différents projets de développement logiciel.
Amélioration de la qualité du code, temps de livraison plus rapides et réduction du nombre d’incidents en production… Autant de critères qui font partie des principaux avantages attendus par 70% des développeurs interrogés.
80% souhaitent également que les outils propulsés par une IA améliorent la collaboration au sein d’équipes. Mais les développeurs concernés par l’étude redoutent également que la mesure de performance soit biaisée.
Acquérir de nouvelles compétences, concevoir des solutions qui résolvent différents problèmes… « Dans de nombreux cas, les choses qu’apprécient et veulent faire davantage les développeurs entrent en conflit avec la façon dont leur performance est mesurée », a expliqué Inbal Shani, CPO de GitHub, dans un billet blog. « Mais ils consacrent la majeure partie de leur temps à attendre des révisions de code, des compilations ou des tests. »
« Les développeurs estiment que leur capacité à collaborer avec d’autres et la qualité de leur code devraient être les principales mesures de leur performance », ajoute la responsable produit. Et ce « plutôt que la quantité et l’efficacité de leur production ». Vœu pieux ?
Aussi, selon une autre étude (GitLab), l’intelligence artificielle et le développement couplé à la sécurité et aux opérations informatiques devient une combinaison « incontournable » ou presque. 65% des développeurs interrogés disent utiliser en conscience l’IA et l’apprentissage automatique (machine learning, ML) pour leurs tests de sécurité et les vérifications de code.
Lire aussi : { Tribune Expert } - Règlement sur l'Intelligence artificielle : vision holistique et éthique de l'innovation
Progresse aussi l’intégration de la sécurité dès les premières étapes du cycle de vie du développement applicatif, plutôt que dans les étapes qui précèdent la mise en production.
(crédit photo © ThisIsEngineering via Pexels)
Sur le même thème
Voir tous les articles Actualités