Opus 4.5 écrit 90% de mon code

Il y a à peine 15 jours je me demandais si l'IA écrirait 90 % de mon code en 2026... puis je me suis rendu compte que c'était déjà le cas.

OpenCode to rule them all

La découverte d'OpenCode, une alternative open-source à Claude Code (qui fonctionne avec tous les modèles, et pas uniquement ceux d'Anthropic) a contribué à me faire aimer la collaboration avec l'IA. C'est la version premium de Claude Code. Tout ce que fait Claude Code, il le fait en mieux (à condition d'utiliser le modèle Opus 4.5 !).

La version web locale est particulièrement agréable : un side-panel affiche toutes les modifications effectuées sous forme de diff, ce qui permet de visualiser clairement chaque changement apporté au code.

Je ne sais pas très bien expliquer pourquoi, mais OpenCode a réellement amélioré ma collaboration avec l'agent, it just works, là où Claude Code avait souvent des bugs (bonjour les blinks dans la console...) qui rendaient parfois l'expérience désagréable.

Sur les deux dernières semaines, je n'ai pas écrit une seule ligne de code from scratch. Quelques retouches ponctuelles lors d'une auto-review de PR, mais c'est très rare. Le gain de productivité au sein de mon équipe est devenu tangible. Sur notre backend, on estime (via la méthode dite du doigt mouillé) entre x2 et x5 le gain selon les tâches.

On a la chance d'avoir une stack récente et cohérente — 99 % de code coverage, tests unitaires de qualité, linters stricts — ce qui augmente considérablement l'efficacité de l'IA. Elle a des exemples clairs à suivre et des garde-fous qui l'empêchent de dériver.

Prenons un exemple : je veux créer un job qui va supprimer automatiquement tous les comptes des utilisateurs qui ne se sont pas connectés depuis 12 mois.

Je vais passer max 5 mins à faire le Plan avec OpenCode. En s'appuyant sur mon AGENTS.md et sur mon infrastructure Pulumi il va être capable de tout faire. L'ensemble du code sera testé unitairement, et la CI me permettra de valider le fonctionnement en condition réelle sur mon infrastructure de staging.

Temps total d'implémentation : moins de 30 minutes, self-review et tests manuels compris. J'aurais probablement mis au moins 2h à faire ça avant l'IA (réflexion, lecture de la documentation Pulumi, visite sur crontab.guru, écriture du code, des tests, etc). De plus, le risque d'être interrompu au milieu de la tâche augmente avec sa durée.

Les limites à garder en tête

Ça ne veut pas dire que tous les projets sont livrés 2 à 5 fois plus rapidement. L'écriture du code n'est qu'une partie du travail : la réflexion en amont, les échanges avec le produit, les reviews, les tests manuels... tout ça prend toujours du temps.

D'ailleurs, le nombre de pull requests augmente, et va prochainement devenir un goulot d'étranglement. C'est un problème de riche, mais c'est un vrai problème.

Une des pistes que j'ai envie d'explorer, c'est la création d'un agent OpenCode sobrement intitulé Review, que je pourrais lancer en local et sur la CI. Mon workflow principal ressemblerait alors à :

  • Plan : Concevoir avec l'IA
  • Build : Laisser l'IA faire l'implémentation
  • Review : Lancer une première review automatique du code généré

L'idée, c'est d'avoir un agent formé sur notre base de code, capable de détecter les mauvais patterns, les problèmes de sécurité (une route non protégée, par exemple), la non-utilisation de fonctions communes, une mauvaise organisation des fichiers, ou des tests pas assez fonctionnels. En gros, tout ce qui concerne "juste le code". Pour la partie fonctionnelle et l'architecture, une review humaine sera toujours utile.

Si vous avez des retours à faire sur les process de review par IA je suis preneur !