Victor Coimbra figure dans la liste Forbes « Under 30 Brazil » pour sa contribution exceptionnelle à l'innovation dans le domaine de l'IA. Il a cofondé la branche latino-américaine Artefact, qui est aujourd'hui un pôle technologique mondial comptant 200 employés. Il apporte une expertise approfondie dans le développement à grande échelle de solutions d'IA et la constitution d'équipes technologiques hautement performantes sur les marchés internationaux.
Dans la première partie, nous avons examiné le problème : les systèmes d'IA se dégradent avec le temps, les performances des tests de référence masquent les défaillances en production, et même les professionnels chevronnés peuvent travailler plus lentement lorsqu'ils sont assistés par l'IA que lorsqu'ils ne le sont pas. Les perspectives sont prometteuses. La réalité actuelle est compliquée.
Alors, comment mettre en place des systèmes qui permettent réellement de maintenir l'effort pendant des heures ?
Trois approches ont vu le jour au sein de différentes communautés, chacune s'attaquant au même problème fondamental : comment un système d'IA peut-il maintenir une progression cohérente lorsque sa mémoire de travail est limitée ?
Méthode n° 1 : le cycle de remise à zéro
À la fin de l'année 2025, une technique au nom absurde de « Ralph Wiggum » est devenue virale parmi les professionnels. Ce nom est tiré d'un personnage des Simpsons — délibérément ridicule, car le principe de base est d'une simplicité presque gênante.
Laissez l'IA faire son travail. Dès que la qualité commence à baisser, arrêtez-la. Recommencez à zéro. Laissez-la reprendre là où elle s'était arrêtée.
C'est tout. L'IA travaille sur une tâche jusqu'à ce que ses performances commencent à baisser. Elle s'arrête alors, enregistre ses progrès dans un fichier et se ferme. Une nouvelle session démarre en repartant de zéro. L'IA examine ce qui a été accompli, identifie ce qui reste à faire et poursuit son travail.
La philosophie : cessez de lutter contre les limites de la mémoire. Tirez-en parti. Chaque session de travail fonctionne de manière autonome. L'avancement du travail est consigné dans des documents et des enregistrements, et non dans la mémoire de l'IA.
Concrètement, cela se traduit comme suit
Une mise en œuvre type se déroule en trois phases :
- Phase 1 (Exigences) : Les humains et l'IA collaborent pour déterminer ce qui doit être fait. Le résultat est un cahier des charges clair.
- Phase 2 (Planification) : l'IA analyse l'écart entre le cahier des charges et la situation actuelle. Résultat : une liste de tâches classées par ordre de priorité. Aucun travail concret n'est encore effectué.
- Phase 3 (Exécution) : l'IA traite une tâche par session. Elle exécute la tâche, vérifie qu'elle a fonctionné, consigne ce qui a été fait, puis se ferme. Nouvelle session. Et ainsi de suite.
La principale contrainte : l'achèvement des tâches doit être clairement mesurable. Cette approche s'avère peu efficace pour les exigences ambiguës, les décisions discrétionnaires ou les travaux exploratoires sans objectifs précis.
Résultats obtenus par les premiers utilisateurs
Les chiffres avancés par les praticiens sont frappants, même s'ils proviennent d'auto-évaluations plutôt que d'études contrôlées.
Un consultant a mené à bien un projet qui aurait coûté 50 000 dollars pour moins de 300 dollars de frais liés à l'IA, en exécutant des sessions automatisées pendant la nuit. L'équipe d'une start-up a réalisé six livrables majeurs en une nuit, avec des résultats fonctionnels, une vérification et une documentation. Un professionnel a développé un produit complet en trois mois grâce à des sessions automatisées.
Les coûts varient généralement entre 50 et 100 dollars pour les projets d'envergure comprenant plus de 50 séances de travail. Chaque séance dure entre 30 et 45 minutes avant le cycle.
Anthropic a officialisé cette approche en décembre 2025 en publiant une documentation officielle. Cette méthode est ainsi passée du statut de solution de contournement à celui de méthodologie recommandée.
La limitation
Cette approche est déterministe dans un monde imprévisible. Comme le dit un professionnel : « Mieux vaut échouer de manière prévisible que réussir de manière imprévisible. »
C'est à la fois un atout et une contrainte. Le cycle de « nouveau départ » fonctionne lorsque l'on peut définir clairement ce qu'est la réussite. Il rencontre des difficultés lorsque la réussite est subjective, lorsque la qualité est implicite et lorsque la « bonne » réponse ne peut être identifiée qu'à l'aide du jugement humain.
Approche n° 2 : la mémoire sélective
Le cycle « nouveau départ » efface tout entre chaque session. Chaque cycle recommence à zéro. Et si l'on pouvait conserver de manière sélective les éléments importants ?
La mémoire sélective adopte une approche différente : elle extrait et stocke les informations essentielles, puis élimine le reste. Au lieu de repartir de zéro, l'IA hérite d'un résumé soigneusement sélectionné de ce qui compte.
Le modèle à deux rôles
Une implémentation courante fait appel à deux rôles d'IA spécialisés :
- Rôle de configuration : s'exécute uniquement au début. Définit le contexte, identifie les informations clés et crée les documents de référence initiaux.
- Rôle : Gère toutes les sessions suivantes. Assure la continuité grâce à trois outils : un suivi de l'avancement indiquant les tâches terminées et celles en attente, une liste de contrôle où les éléments sont marqués comme terminés ou en suspens, et un historique des modifications indiquant ce qui a été modifié et pourquoi.
Le déroulement de la séance est clairement défini : vérifier l'état actuel, passer en revue les documents de suivi, sélectionner les tâches restantes les plus prioritaires, vérifier la situation de référence avant d'entamer de nouvelles tâches.
La différence par rapport au cycle de démarrage à zéro : l'étape de compression. Le rôle opérationnel hérite d'un résumé sélectionné du contexte pertinent. Des études indiquent que cette approche permet à l'IA d'exécuter de longues séquences de tâches en n'utilisant que 16 % des informations dont elle aurait autrement besoin. Soit une réduction de 84 % de la charge administrative.
Mémoire avancée : préservation des relations
Les dernières avancées en matière de mémoire sélective permettent de conserver non seulement des faits, mais aussi des relations.
Réfléchissez à la manière dont les êtres humains se souviennent des projets. Nous ne nous contentons pas de nous rappeler des faits isolés. Nous nous souvenons que telle décision a entraîné telle conséquence, que telle personne est responsable de telle tâche, que tel document concerne telle exigence. Les liens sont tout aussi importants que le contenu.
Les systèmes de mémoire basés sur l'IA avancée sont désormais capables de saisir ces relations. Lorsqu'ils stockent des informations, ils ne se contentent pas d'enregistrer ce qui s'est passé, mais identifient également les personnes impliquées, les liens entre les événements et leur importance. Lorsqu'ils récupèrent ces informations, ils peuvent reconstituer le contexte en suivant ces fils de relations.
Indicateurs de performance de ces systèmes : amélioration de 26 % des évaluations de qualité. Réduction de plus de 90 % de la surcharge d'informations tout en préservant la cohérence. Gestion nettement améliorée des tâches s'étendant sur plusieurs sessions.
Le compromis
La mémoire sélective ajoute une certaine complexité. Il faut disposer d'une infrastructure pour le stockage et la récupération. Il faut décider ce qu'il faut conserver et ce qu'il faut supprimer. Il faut avoir confiance dans le fait que la compression préserve ce qui compte.
Ce problème n'est pas encore résolu. Les systèmes de mémoire peuvent perdre des détails essentiels. La compression peut entraîner de légères distorsions. L'IA risque de récupérer le mauvais contexte au mauvais moment. Une réduction de 84 % peut sembler impressionnante, jusqu'à ce que l'on se rende compte que les 16 % conservés comportaient des informations essentielles.
Approche n° 3 : Coordination de l'équipe
Et si la solution ne résidait pas dans une seule IA dotée d'une meilleure mémoire, mais dans de nombreux systèmes d'IA ayant chacun un rôle bien défini ?
La coordination d'équipe décompose les tâches complexes en rôles spécialisés, coordonnés par un responsable central. Chaque rôle a un champ d'action bien défini, des besoins en informations limités et une mission spécifique. Le responsable garde une vue d'ensemble et ne transmet à chaque collaborateur que les informations pertinentes.
Les coulisses de la création
Les grandes entreprises spécialisées dans l'IA l'utilisent en interne. La structure :
Coordinateur : un système d'IA performant chargé d'analyser les demandes, de planifier la stratégie, de gérer la mémoire et de diriger les spécialistes.
Spécialistes : systèmes d'IA spécialisés fonctionnant en parallèle pour des tâches spécifiques.
Résultat : les systèmes collaboratifs surpassent les systèmes d'IA autonomes de 90 % dans le cadre de tâches de recherche complexes. Il ne s'agit pas d'une amélioration marginale, mais d'un quasi-doublement des performances.
Conclusion principale : la gestion de l'information explique 80 % des écarts de performance dans le domaine de l'IA collaborative. Les outils et les modèles d'IA utilisés importent moins que la manière dont l'information circule entre les différents rôles.
Deux modèles de coordination
Modèle de transfert : un système d'IA cède le contrôle à un autre en cours de tâche. Chacun connaît l'existence de l'autre et décide du moment où passer le relais. Le thread de travail se poursuit, mais la responsabilité est transférée. Ce modèle fonctionne bien pour les flux de travail séquentiels et par étapes.
Modèle de gestion : un coordinateur central attribue les tâches aux spécialistes et recueille les résultats. Les spécialistes renvoient leurs résultats ; le coordinateur conserve le contrôle et prend les décisions. Il n'y a pas de transfert du thread principal. Ce modèle fonctionne bien pour le traitement parallèle et la synthèse des résultats.
Le choix dépend de votre flux de travail. Les transferts de tâches sont efficaces lorsque celles-ci se décomposent naturellement en étapes. Les modèles de gestion fonctionnent bien lorsque vous avez besoin d'un traitement parallèle associé à une prise de décision centralisée.
Normalisation industrielle
En 2025, le secteur a normalisé la manière dont les systèmes d'IA communiquent entre eux et avec des ressources externes. On peut comparer cela à la normalisation des prises électriques : les produits de différents fabricants peuvent désormais fonctionner ensemble.
Une norme définit la manière dont l'IA se connecte aux sources d'information et aux outils. Une autre définit la manière dont les systèmes d'IA communiquent entre eux. Ensemble, elles constituent des éléments de base pouvant être assemblés selon différentes configurations.
C'est important car cela favorise la modularité. Un flux de travail conçu par une équipe peut intégrer des composants développés par une autre. Les systèmes de stockage deviennent interchangeables. Les sources d'information deviennent identifiables. L'« écosystème de l'IA » n'est pas un simple argument marketing : c'est une réalité technique que ces normes rendent possible.
Les frais généraux
L'IA collaborative consomme environ 15 fois plus de ressources que l'IA à interaction unique. C'est le prix à payer pour la coordination. Pour les tâches simples, cette surcharge l'emporte sur les avantages. Pour les tâches complexes, le gain de fiabilité justifie cette dépense.
Les modes de défaillance sont également plus complexes. Une conception défaillante des transitions a entraîné un taux d'abandon de 40 % chez une entreprise de commerce électronique, les transitions gérées par l'IA ayant semé la confusion chez les utilisateurs. Des défaillances en cascade peuvent se propager à travers les réseaux d'IA. Une analyse sectorielle réalisée en 2025 a identifié 14 schémas de défaillance distincts, touchant à la conception des systèmes, aux défaillances de coordination et à la vérification de la qualité.
Choisir la bonne approche
Voici ce que je pense de ces options :
- La méthode du « nouveau départ » fonctionne lorsque les tâches ont des critères d'achèvement clairement mesurables, que vous pouvez vous contenter de progrès progressifs et prévisibles, que ces progrès peuvent être entièrement consignés dans des documents et des registres, et que vous privilégiez la simplicité à la complexité.
- La mémoire sélective est utile lorsque les tâches nécessitent de conserver les relations entre les sessions, que vous disposez d'une infrastructure de stockage et de récupération, que l'efficacité est primordiale à grande échelle et que vous pouvez investir dans la mise en place de systèmes de compression.
- La coordination d'équipe fonctionne lorsque les tâches se décomposent naturellement en sous-tâches spécialisées, que le traitement en parallèle est nécessaire, que la charge liée à la coordination (15 fois plus de ressources) est acceptable et que l'on est en mesure de gérer des modes de défaillance plus complexes.
La plupart des systèmes de production combinent des éléments de ces trois approches. Un système basé sur le travail en équipe où chaque spécialiste utilise des cycles de redémarrage. Un coordinateur doté d'une mémoire étendue qui dirige des travailleurs sans état. Ces approches sont complémentaires, et non exclusives.
Le point commun : ces trois approches externalisent les informations que l'IA ne peut pas conserver de manière fiable en interne. Elles se distinguent par le volume d'informations externalisées et par la manière dont elles gèrent leur récupération.
Dans la troisième partie, nous examinerons ce que l'IA à long terme implique pour les organisations : comment le travail évolue, quelle gouvernance est nécessaire et quelles sont les opportunités réalistes à l'horizon 2026.
Références
Articles de recherche
- Développer une IA prête à l'emploi grâce à une mémoire à long terme évolutive — arxiv.org/abs/2504.19413
- Architecture mémoire basée sur des graphes multiples pour l'IA — arxiv.org/abs/2601.03236
- Évaluation de l'IA en production — arxiv.org/abs/2512.04123
Rapports sectoriels et livres blancs
- Modes de défaillance dans les systèmes d'IA — Microsoft
- Leçons tirées de 2025 sur l'IA et la confiance — Google Cloud
- État des lieux de l'ingénierie de l'IA — LangChain
- Évaluation par rapport aux tests de performance standard vs évaluation en conditions réelles — METR
Documentation technique
- Comment nous avons développé notre système de recherche multi-agents — Anthropic
- Spécification du protocole Model Context — modelcontextprotocol.io
- Documentation Fresh-Start Cycling (« Ralph Wiggum ») — Geoffrey Huntley (ghuntley.com/ralph/)

BLOG






