Connect with us

Leaders d’opinion

Au-delà du codage IA : le véritable saut de productivité consiste à sauter le code entièrement

mm

Pour tout l’attention portée sur le développement assisté par l’IA, des outils d’autocomplétion aux systèmes qui génèrent des référentiels entiers, la conversation reste axée sur la vitesse. Tout le monde parle de mise en place plus rapide, de prototypage plus rapide et de génération de code plus rapide. Les équipes de produits célèbrent la capacité de convertir des descriptions en langage naturel en fonctions ou API en quelques minutes. Oui, ces gains sont significatifs, mais ils opèrent toujours dans le même paradigme logiciel. Le code est écrit, compilé, déployé, testé et maintenu. Le cycle s’accélère, mais la structure reste intacte.

À un niveau plus profond, cependant, un changement commence à émerger, qui pointe vers la prochaine véritable avancée de productivité. Pour des gains véritablement à couper le souffle, nous avons besoin d’un changement de paradigme : pas de code plus rapide, mais moins de code. Au lieu d’utiliser l’IA pour traduire les règles commerciales en programmes que les machines exécuteront plus tard, la logique commerciale sera exprimée directement en langage naturel et exécutée par des systèmes intelligents. Le modèle devient le runtime. Les couches de traduction disparaissent.

Cette étape n’est pas une question de commodité. Elle change la façon dont les organisations opèrent. Elle modifie la façon dont la politique devient logiciel, la façon dont la réglementation devient action et la façon dont les entreprises s’adaptent aux pressions externes. Elle apporte la possibilité de réduire les cycles d’ingénierie de plusieurs mois en mises à jour rapides et guidées par les politiques qui bougent aussi vite que les institutions qui les régissent.

Comment l’IA passe du codage à l’exécution de la logique

Il existe trois grandes étapes d’adoption de l’IA dans le développement de logiciels. La première est le codage assisté par l’IA, où la machine aide à générer des extraits ou des fonctions pendant le développement. La deuxième est les systèmes générés par l’IA, où de grandes composantes ou architectures peuvent être produites à partir de langage naturel. La troisième est l’exécution de la logique par l’IA, où les développeurs n’écrivent pas du code du tout. Au lieu de cela, ils fournissent des politiques, des règles ou des intentions. Le système interprète ces instructions et agit directement.

La plupart de la discussion de l’industrie reste confinée aux deux premières étapes. Ils produisent des efficacités mais n’altèrent pas la structure plus profonde du logiciel. La logique de branchement, les pipelines de déploiement, les tests de régression et la gestion de l’environnement restent. Il en va de même pour la dette technique, la dérive des dépendances et le besoin d’équipes qui peuvent naviguer dans les couches de traduction complexes entre politique, exigences et code.

L’opportunité de la troisième étape est plus conséquente. Lorsque l’instruction commerciale devient la source de vérité, les organisations passent des cycles de version logicielle à l’exécution déclenchée par des invites. La mise à jour d’une règle de conformité devient une seule instruction. L’ajustement d’un seuil de score de fraude devient une seule instruction. La modification d’une logique de remboursement spécifique à une juridiction devient une seule instruction. Ces changements ne sont pas alimentés dans une file d’attente. Ils passent directement à l’exécution contrôlée via des flux de simulation, de validation et d’approbation.

Ce modèle ne commence qu’à se former. Les composants existent, mais l’intégration n’est pas encore répandue. Cependant, la direction du déplacement est claire.

Pourquoi la réduction de l’effort de codage n’est pas suffisante

Le code généré par l’IA porte toujours les mêmes fardeaux que le code écrit par l’homme. Les systèmes nécessitent une maintenance et les dépendances changent. De plus, le refactoring devient inévitable à mesure que la logique évolue, et les cycles de test et de régression persistent car la correction dépend toujours d’instructions statiques écrites dans un langage déterministe. Beaucoup de ces contraintes n’ont rien à voir avec qui a écrit le code. Ils reflètent ce que le code est fondamentalement : une couche de traduction entre l’intention commerciale et l’exécution de la machine.

Ces contraintes s’accumulent. Ils consomment du temps et de l’argent. Même les référentiels les plus sophistiqués générés par l’IA nécessitent une surveillance et des tests complexes. La maintenance devient le principal facteur de coût sur la durée de vie d’un système.

Des recherches récentes ont détaillé ces défis. Une étude de 2025 sur la dette technique dans les systèmes dotés d’IA a constaté que les organisations qui adoptent du code généré par l’IA sont toujours confrontées à des problèmes de maintenabilité importants, à une inconsistance architecturale et à des fardeaux de refactoring à long terme. Ces problèmes apparaissent indépendamment du fait que le code soit écrit par des humains ou des modèles, ce qui suggère que l’accélération de la génération de code ne résout pas les limites structurelles de l’ingénierie logicielle. Supprimer la couche de traduction entièrement est le seul chemin vers un changement de productivité.

Pourquoi le secteur financier ressentira ce changement en premier

Les paiements, la banque et les services financiers opèrent dans des conditions qui récompensent l’adaptabilité. Les paysages réglementaires changent fréquemment, et les orientations dans des domaines tels que l’authentification forte du client, le remboursement de la fraude, les sanctions transfrontalières et la protection des consommateurs évoluent en continu. Par exemple, la communication « Dear CEO » de la FCA sur le remboursement des paiements autorisés fixe des attentes claires en matière de surveillance et de contrôles au niveau du système dans cet environnement. Les institutions passent souvent des mois à traduire ces changements de politique en comportement de système, et ce retard crée un désavantage stratégique.

Un modèle d’exécution déclenchée par des invites pourrait changer le tempo. Au lieu de coder des règles dans plusieurs systèmes, les institutions financières pourraient mettre à jour des politiques directement en langage naturel et laisser la couche d’exécution interpréter, simuler et générer des propositions de déploiement. Si cela se produit, le coût de développement diminuerait. De plus, le risque de mauvaise interprétation diminuerait, et la distance entre la réglementation et la mise en œuvre se réduirait considérablement.

Les attentes réglementaires au Royaume-Uni vont dans le même sens. La déclaration de politique de la FCA et de la Banque d’Angleterre de 2024 sur la résilience opérationnelle établit des exigences plus strictes pour la façon dont les institutions financières identifient les vulnérabilités, répondent aux changements et maintiennent la continuité dans les services critiques. L’orientation met l’accent sur des structures de gouvernance plus claires et un contrôle plus fort des systèmes qui soutiennent les paiements et les contrôles de fraude. Les institutions qui peuvent traduire la politique en comportement opérationnel rapidement seront mieux à même de répondre à ces attentes.

Les risques que les dirigeants doivent considérer

Ce changement n’est pas sans défis. Remplacer le code par une exécution pilotée par modèle introduit de nouveaux types de risques. Le déterminisme devient essentiel, en particulier dans les paiements où la prévisibilité et la traçabilité sont obligatoires. L’explicabilité devient critique pour la conformité et l’examen réglementaire. Le coût de calcul doit être contrôlé. La gouvernance nécessite des lignes claires de responsabilité, en particulier dans les fonctions de direction.

Des travaux récents sur la fiabilité et l’évaluation des modèles mettent en évidence à quel point il est difficile de maintenir un comportement déterministe à grande échelle. Une étude examinant les benchmarks de grands modèles de langage a constaté que de petits changements dans la configuration d’évaluation produisaient des résultats incohérents et parfois contradictoires. Cette variabilité signifie qu’une couche d’exécution déclenchée par des invites nécessitera des contrôles qui incluent des modèles de garde, des procédures de validation, des environnements de simulation et des invites et des modèles versionnés. Ces éléments seront nécessaires pour répondre aux attentes réglementaires en matière de surveillance et de résilience opérationnelle.

L’infrastructure entourant les modèles d’exécution IA définira si les institutions peuvent adopter ce paradigme en toute sécurité. Il ne suffit pas d’exprimer des règles en langage naturel. Les organisations doivent construire les couches qui assurent la correction, la reproductibilité et l’observabilité.

Une architecture potentielle pour les systèmes de politique à exécution

Un environnement d’exécution futur pour les organisations réglementées peut suivre une structure où la politique devient la source principale de vérité opérationnelle. Le processus pourrait fonctionner via plusieurs couches :

  • Politique : règles commerciales ou de conformité exprimées directement en langage naturel.
  • Bibliothèque d’invites contrôlée : un référentiel versionné où ces règles sont stockées, examinées et approuvées avec des traces d’audit complètes.
  • Interprétation et simulation IA : systèmes qui testent la politique, exécutent des scénarios, vérifient les cas limites et identifient les incohérences avant le déploiement.
  • Recommandations de déploiement : étapes de déploiement proposées, y compris des garde-fous et des évaluations d’impact, qui nécessitent une approbation humaine.
  • Exécution via des API structurées : une fois approuvée, le système applique la politique validée en utilisant des mécanismes déterministes existants, tels que des moteurs de règles ou des API prédéfinies qui mettent à jour les configurations, les seuils ou les contrôles. La couche IA interprète l’intention ; la couche d’exécution la fait respecter sans générer de nouveau code.

Un exemple pratique illustre comment ces couches pourraient fonctionner. La FCA met à jour les orientations sur le remboursement de la fraude APP, et l’équipe de conformité convertit le changement en une politique écrite en langage naturel. L’instruction pourrait être aussi simple que : « Signalez tous les paiements sortants de plus de 500 £ où le bénéficiaire a été créé au cours des 48 dernières heures, à moins que l’expéditeur n’ait envoyé à ce bénéficiaire auparavant ». Le système IA teste l’instruction, exécute des simulations, vérifie les cas limites, produit de la documentation et propose un chemin de déploiement. La conformité examine et approuve la recommandation. La couche d’exécution met ensuite à jour les contrôles pertinents sans que du code soit écrit ou déployé manuellement.

Cette architecture maintient une surveillance humaine tout en réduisant la distance technique entre la politique et le comportement opérationnel. Elle fournit également un environnement contrôlé où l’interprétation probabiliste et l’exécution déterministe peuvent coexister.

Plusieurs analyses d’ingénierie ont examiné comment les architectures hybrides peuvent prendre en charge des systèmes qui combinent l’interprétation pilotée par modèle avec une logique déterministe. Une enquête sur les cadres d’IA agentic explique comment les organisations peuvent intégrer des composants neuronaux avec des structures à base de règles dans un seul environnement opérationnel. La recherche suggère que ce type de conception peut simplifier la coordination entre les systèmes, maintenir des frontières plus claires autour des opérations critiques et créer des chemins d’exécution qui restent prévisibles pour les contextes réglementés.

Pensées finales

Les outils de codage IA continueront à s’améliorer. Ils accélèreront le développement logiciel et réduiront les efforts. Mais ils ne résolvent pas les limites sous-jacentes de la traduction de l’intention commerciale en code déterministe. Le prochain changement de productivité viendra de la suppression de cette couche de traduction entièrement.

Les organisations qui commencent à se préparer pour l’exécution déclenchée par des invites dès maintenant gagneront en vitesse, en résilience et en clarté. Ils seront en mesure de s’adapter rapidement aux changements réglementaires et de réduire la friction d’ingénierie. Ils construiront également l’infrastructure nécessaire pour les flux de travail autonomes et pilotés par machine.

Les institutions qui restent concentrées sur la génération de code captureront l’efficacité. Les institutions qui dépassent le code captureront l’avantage stratégique.

//noda.live/">Noda, où il soutient l'expansion stratégique de l'entreprise dans les produits financiers basés sur la blockchain et fournit des conseils en matière de conformité, d'architecture et de dynamique du marché des actifs numériques. En cas de quoi que ce soit, n'hésitez pas à me le faire savoir.