Se rendre directement au contenu
  • Accueil
  • Blog
  • Vibe coding, specs, skills, agents : arrêtez de prompter à l’aveugle, structurez votre IA
Cover Image for Vibe coding, specs, skills, agents : arrêtez de prompter à l’aveugle, structurez votre IA

Vibe coding, specs, skills, agents : arrêtez de prompter à l’aveugle, structurez votre IA

Kim - Software engineer
Kim - Software engineer
7 min

On ne va pas se mentir : le vibe coding, c’est grisant. Ouvir Claude Code, rédiger un prompt du type « génère-moi un dashboard Next.js pour monitorer la santé d’un cluster », et en quelques secondes on a un code qui tourne. Ça fait son petit effet.

Sauf que quand on regarde de plus près, la réalité rattrape vite l’enthousiasme. L’authentification ? Absente. La librairie de data fetching ? Celle que vous aviez explicitement dépréciée le mois dernier. Le format des réponses API ? Inventer de toutes pièces. Le vibe était bon, mais le delivery est complètement à côté.

En tant que consultant technique chez WexIT, j’interviens au quotidien sur des architectures headless, des pipelines CI/CD et du conseil en choix technologiques. Et ce que j’observe chez nos clients, c’est que la plupart des équipes de dev sont bloquées entre deux extrêmes : soit elles vibes à 100% et prient pour que ça tienne, soit elles essaient d’écrire des specs monolithiques de 80 pages que l’IA finit par ignorer. Les deux approches sont des impasses.

Il y a une troisième voie, et elle repose sur quatre briques complémentaires.

Le gap d’encodage/décodage : pourquoi le vibe coding seul ne scale pas ?

Ce que j’appelle le gap d’encodage/décodage, c’est l’écart entre ce qu’on a en tête quand on promptes un agent IA et ce que l’agent produit réellement. Quand cet écart est faible, c’est magique, le code ressemble à ce qu’on aurait écrit nous-même. Quand il est large, on passe plus de temps à corriger l’output qu’à coder from scratch.

Le problème du vibe coding pur, c’est que cet écart est structurellement large. On donne une intention floue et l’agent comble les blancs avec ses propres hypothèses. Celles-ci étant basées sur ses propres données d’entraînement, pas sur votre projet, votre infra ou encore vos contraintes métier.

Sur un MVP ou prototype, cela peut passer. Sur un projet client avec des contraintes de sécurité, une stack imposée et un existant à respecter, c’est un risque qu’on ne peut pas se permettre.

Les quatre piliers : vibes, specs, skills, agents

Voici le type de framework que nous sommes amenés à utiliser dans nos missions de conseil technique.

1. Vibes : l’exploration

Le vibe coding garde tout son sens en phase d’exploration. On peut tester une idée, comparer deux approches d’architecture, prototyper un composant en 10 minutes et j’en passe …

Concrètement, c’est le mode « interacting » : on discute avec l’agent, on itère, puis on affine. Cela s’apparente à du brainstorming assisté et non pas à de la production.

Mon tip : utiliser le plan mode de Claude Code dans cette phase. Demander à l’agent de scorer la qualité de son brief avant de passer en exécution. Un truc du genre :

« Sur une échelle de 0 à 10, à quel point un agent autonome pourrait-il implémenter cette feature à partir de ce brief seul ? Qu’est-ce qu’il manque ? »

Ça crée une boucle de coaching qui vous aidera à clarifier l’intention avant de lâcher l’agent en mode autonome.

2. Specs : le contrat

C’est là que ça devient sérieux. La spécification, c’est le contrat entre vous et l’agent. Elle formalise le what (quoi construire, pourquoi) et le how (comment le construire dans un contexte précis).

Et la clé, c’est de ne pas mélanger les deux dans un seul document. Si vous rédigez le what et le how dans un même prompt, l’agent perd son focus.

Ce que je recommande, c’est une approche modulaire avec des fichiers Markdown dans un dossier specs/ :

  • `what-vision.md` : les objectifs métier, les user stories, les critères de succès…
  • `how-security.md` : authentification, gestion des secrets, OIDC …
  • `how-observability.md` : OpenTelemetry, stratégie de logging, APM …
  • `how-standards.md` : conventions de code, architecture cible, patterns imposés …
  • `how-testing.md` : couverture cible, stratégies de mocking, E2E

L’avantage de cette modularité, c’est de charger uniquement le contexte pertinent à chaque task dédiée.

3. Skills : le savoir-faire packagé

C’est le pilier le plus récent et, à mon avis, le plus sous-estimé. Si la spec dit quoi faire, la skill dit comment le faire concrètement.

Une skill, c’est un dossier contenant un fichier `SKILL.md` avec du YAML frontmatter et des instructions Markdown. Il s’agit des normes officielles définies par agentskills.io.

Exemple concret : Vous avez besoin que votre agent sache déployer sur un cluster Kubernetes via `kubectl` ou `oc` ? Vous packagez ça dans une skill :

.claude/skills/deploy-k8s/

.claude/skills/deploy-openshift/

├── SKILL.md

├── deploy-template.yaml

└── validate-route.sh

Le `SKILL.md` décrit la procédure étape par étape :

  • vérifier l’authentification ;
  • sélectionner le namespace ;
  • appliquer le template ;
  • valider le deployment.

L’agent lit la skill et l’applique, ce qui lui permet de ne pas réinventer la roue à chaque fois. Chez WexIT, c’est exactement la logique qu’on défend auprès de nos clients : encoder le savoir-faire de l’équipe dans des assets réutilisables. Les skills, c’est de l’onboarding automatique pour les agents (et accessoirement pour les nouveaux développeurs qui rejoignent le projet).

4. Agents — les moteurs d’exécution

L’agent, c’est le runtime qui consomme les specs et skills pour produire du code. Mais tous les agents ne se valent pas, et il est crucial de choisir le bon outil pour le bon job.

En pratique, on peut distinguer trois types :

Les agents interactifs / chat (Cursor Agent, Claude Code ), qui sont parfaits pour le brainstorming et l’itération rapide. Attention : ils ne chargent pas automatiquement vos specs, il faut les pointer explicitement vers les fichiers.

Les agents IDE-intégrés (Cursor Agent, Claude Code en mode agent, Kiro), qui accèdent au filesystem, lisent les fichiers du projet, exécutent des commandes dans le terminal. C’est le sweet spot pour l’implémentation de features et le refactoring.

Les agents autonomes (AutoGPT, Claude Code en mode non-interactif, agents custom), en leur attribuant des specs solides, ils exécutent sans intervention. C’est le mode le plus efficace pour les migrations à grande échelle ou les tasks répétitives.

Un workflow type : Commencer en mode interactif pour explorer et affiner la spec, puis passer en agent IDE pour l’implémentation, et réserver l’autonome pour les chantiers de mass refactoring ou de migration.

La co-évolution des specs : chaque bug rend le système plus intelligent

Un élément qui fait vraiment la différence en pratique, c’est ce que l’on pourrait appeler la co-évolution des specs. L’idée est simple, chaque erreur de l’agent alimente un fichier `LessonsLearned.md`, et chaque lesson learned déclenche une mise à jour de la spec `how-xxx.md` concernée.

Exemple :

Votre agent génère un endpoint sans vérifier le claim `aud` du JWT ?

Vous documentez le fix dans `LessonsLearned.md`, vous mettez à jour `how-security.md` avec la contrainte.

-> La prochaine fois que l’agent travaille sur de l’auth, il ne refera pas la même erreur.

C’est un cercle vertueux : vos spécifications s’améliorent au fil du temps, la qualité des outputs augmente et le gap d’encodage/décodage se réduit progressivement. Sur un projet long comme ceux qu’on accompagne chez WexIT (e-commerce B2B, plateformes multi-sites), c’est un game changer.

En pratique : quel pilier pour quel besoin ?

Un petit récapitulatif pour savoir quand activer quoi :

SituationPilier principalModeRésultat attendu
Explorer une nouvelle libVibes codingInteragirCompréhension rapide et vérification du vibe coding
Définir les limites de l’APISpecs (Quoi?)InstructionBlueprint fonctionnel
Application des modèles d’authentificationSpecs (Comment?) InstructionGarde-fous et réutilisable
Automatiser un déploiement récurrentSkillsAgent autonomeExécution fiable et reproductible
Affinage de la spec existanteAI coachingInteragirEncodage
Scaler la génération de codeAgentsInstructionCode précis à haut volume

Pourquoi cela vaut-il l’investissement ?

Je sais ce que vous pensez : « C’est beaucoup de setup pour coder avec de l’IA.» Il est vrai que le vibe coding pur est plus rapide pour un temps très court d’une demie-heure. Mais après, ce sont les corrections permanentes, les régressions et les hypothèses fausses qui s’accumulent.

Le payoff du système à quatre piliers se mesure sur trois axes :

Productivité : Moins de temps à corriger l’IA, plus de temps pour la review et l’architecture. Dans le cadre de nos projets chez WexIT, j’estime qu’une spécification bien écrite divise de moitié le temps de review des PRs générées par un agent.

Qualité : Le code devient traçable. Si un bug survient, on sait si c’est la spec qui était incomplète ou si c’est l’agent qui a mal exécuté. Cette traçabilité est impossible en mode vibe only.

Scaling : Un développeur seul peut vibe coder. Mais une équipe ne scale pas sur des vibes. En empaquetant les specs et les skills comme des team assets, tout le monde opère au niveau du meilleur architecte de l’équipe.

Par où commencer ?

Si tout ça vous parle, voici comment démarrer sans tout changer d’un coup :

1. Prenez votre prompt le plus fréquent et transformez-le en spécification modulaire (un fichier what et un fichier how).

2. Identifiez une tâche répétitive (déploiement, migration, setup de projet) et packagez-la en skill.

3. Testez la boucle de coaching : demandez à l’agent de scorer votre spécification avant de l’exécuter.

4. Itérez : alimentez votre `LessonsLearned.md` à chaque correction.

Le jour où votre agent vous livre du code qui ressemble exactement à ce que vous auriez écrit vous-même, vous saurez que le gap est comblé.

Partager sur :

Vous serez peut-être aussi intéressé par :

Cover Image for Rattraper l’accessibilité d’une application web : guide opérationnel pour les équipes projet

Rattraper l’accessibilité d’une application web : guide opérationnel pour les équipes projet

Votre site affiche un taux de conformité RGAA de 40 %. L’audit vient de tomber, les résultats sont mauvais, et la direction demande un plan d’action. C’est une situation que de plus en plus d’équipes projet rencontrent. L’accessibilité numérique n’est plus un sujet de niche, c’est une obligation légale pour le secteur public et les […]

Hadrien - Project Management Officer
Hadrien - Project Management Officer
Cover Image for RGAA 5 : Ce qui change concrètement pour vos projets numériques

RGAA 5 : Ce qui change concrètement pour vos projets numériques

Le 2 mars 2026, la Direction interministérielle du numérique (DINUM) a officialisé l’arrivée d’une nouvelle version du RGAA (Référentiel général d’amélioration de l’accessibilité). La version 5, prévue pour fin 2026, va élargir le périmètre du référentiel, intégrer les dernières recommandations internationales et renforcer le dispositif de contrôle. Pour les équipes qui pilotent des projets web, […]

Hadrien - Project Management Officer
Hadrien - Project Management Officer