Amazon vient peut-être de changer le cours du marché du codage de l’IA. Après une série de pannes causées par du code généré par l’IA, Amazon a mis en place un nouvel ensemble de règles de surveillance qui pourraient changer radicalement la façon dont les entreprises utilisent les outils de développement de l’IA.
Le vice-président principal Dave Treadwell a décrit ces règles comme des « pratiques de sécurité temporaires qui introduiront une friction contrôlée aux changements », tout en notant que la société investirait parallèlement dans des solutions plus permanentes, notamment des mesures de protection basées sur des règles et des mesures de protection basées sur l’IA.
C’est un retour à la réalité pour le secteur florissant du codage de l’IA, et l’impact se répercute jusque dans les portefeuilles de ceux qui possèdent des actions de Microsoft (MSFT), d’Alphabet (GOOGL) ou de start-ups privées de codage de l’IA.
Pourquoi Amazon a stoppé Autopilot
Cette décision fait suite à plusieurs perturbations de services très médiatisées à la fin de l’année 2025 et au début de l’année 2026. Amazon Web Services (AWS) faisait fonctionner Kiro, son assistant de codage agentique interne, pour gérer une correction de routine sur un service de calcul des coûts. Lors d’un incident considéré comme une “erreur de l’utilisateur” par Amazon, Kiro a supprimé et reconstruit l’ensemble de l’environnement à partir de zéro, provoquant une interruption de service de 13 heures.
Les documents internes obtenus par Business Insider révèlent que le 2 mars 2026, un problème en partie lié à l’assistant de codage IA d’Amazon a contribué à une perturbation qui a entraîné la perte d’environ 120 000 commandes et d’environ 1,6 million d’erreurs sur le site web. Trois jours plus tard, le 5 mars, une autre panne a déclenché une baisse de 99 % des commandes sur les places de marché nord-américaines d’Amazon, ce qui a entraîné la perte de 6,3 millions de commandes en une seule journée.
Un TWiST d’urgence La revue d’ingénierie à l’échelle de la société a abouti à un changement de politique formelle obligeant les ingénieurs débutants et de niveau intermédiaire à obtenir l’approbation d’un ingénieur senior avant de déployer des modifications de code assistées par l’IA en production.
Les nouvelles règles de surveillance
La réponse d’Amazon va au-delà du courriel interne de Treadwell, mettant en lumière les revers récents sur le site Web de la société et l’infrastructure associée.
La société applique désormais une réinitialisation de la sécurité structurée de 90 jours à environ 335 systèmes critiques au sein de son infrastructure de vente au détail. Le nouveau flux de travail de ses ingénieurs suit généralement les étapes suivantes :
- Revue par les pairs obligatoire : Toute modification du code, qu’elle soit générée par l’IA ou non, concernant un système critique doit être revue par au moins deux ingénieurs avant le déploiement.
- Approbation des ingénieurs seniors : Les développeurs juniors utilisant des outils d’IA doivent obtenir l’approbation d’un ingénieur senior.
- Documentation formelle : Les équipes doivent utiliser des outils internes pour fournir un document structuré de ce qu’une IA a fait et de la manière dont il a été testé avant sa mise en ligne.
- Traçabilité des données : Les directeurs et vice-présidents doivent désormais surveiller les activités de codage en production afin de garantir que personne ne contourne ces étapes de sécurité pour respecter les délais.
Comment cela affecte le codage de l’IA
Le marché des assistants de codage de l’IA a connu une croissance rapide, les entreprises s’efforçant d’automatiser le développement de logiciels. Des outils tels que GitHub Copilot et les nouveaux agents de code IA sont de plus en plus intégrés dans les flux de travail des entreprises. Cette envolée de l’adoption a contribué à alimenter l’optimisme des investisseurs autour des logiciels de productivité des développeurs et des plates-formes cloud
Si les entreprises constatent que les développeurs doivent passer beaucoup de temps à examiner le code généré par l’IA, les gains de productivité promis par ces outils risquent de diminuer. Ils pourraient être contraints de réévaluer la valeur des abonnements d’entreprise coûteux tels que GitHub Copilot.
De plus, AWS vend des outils de codage d’IA à ses clients tout en conseillant simultanément à son propre personnel d’en faire extrêmement attention. Cette dynamique du « fais ce que je dis, pas ce que je fais » pourrait amener certains clients d’AWS à envisager des concurrents ou à réduire leurs dépenses en IA.
Les entreprises qui autorisaient auparavant le déploiement d’outils d’IA avec moins de contrôles ont désormais Amazon comme référence lors de l’examen des risques en interne. Les entreprises s’attendront désormais à de meilleures fonctionnalités descriptives. Si l’outil d’IA ne peut pas expliquer précisément comment il en est venu à écrire une ligne de code spécifique, la société pourrait considérer l’outil comme une faiblesse.
Conclusion
La nouvelle règle de surveillance d’Amazon rappelle que dans le monde de la finance et de la technologie à enjeux élevés, la stabilité est plus précieuse que la vitesse. La société ne recule pas devant la technologie IA, comme en témoigne son engagement de 200 milliards de dollars en dépenses d’investissement en 2026. Ce que ces pannes démontrent, c’est que la technologie est déployée plus rapidement que le filet de sécurité destiné à cette technologie n’est construit. La préférence des investisseurs pourrait s’orienter vers des sociétés offrant la gouvernance, la conformité et la supervision, en plus d’un outil de génération de code IA. La capacité des entreprises du marché des assistants de codage à construire des outils capables de détecter les erreurs de l’IA avant qu’elles ne perturbent le système fera toute la différence.
Clause de non-responsabilité Benzinga : Cet article provient d’un contributeur externe non rémunéré. Il ne reflète pas le reportage de Benzinga et n’a pas été édité pour le contenu ou la précision.