Convergence multi-modèle orchestrée par l'humain : Чысты
Ludwig Boltzmann a publié sa preuve du théorème H en 1872. La notation était ad hoc, la stratégie de preuve sans précédent, et les implications physiques suffisamment radicales pour que ses contemporains passent des décennies à les contester. Le document qui l'accompagne, un guide de lecture entièrement annoté des pages 299 à 306 de cet article, a été produit pour rendre ces six pages lisibles par quiconque dispose d'un navigateur web.
Concepts clés
Artefacts intellectuels complexes générés par une collaboration récursive de l'IA, l'humain agissant comme conservateur plutôt que comme compositeur.
La création de contenu a consisté en une direction stratégique, une évaluation, un affinement et le maintien de l'intégrité de l'artefact. Le conservateur peut annoter, structurer, traduire ou stabiliser l'œuvre, mais ne réécrit pas le document principal.
Processus itératif par lequel les modèles d'IA s'appuient sur les productions les unes des autres dans une chaîne d'amélioration dirigée.
Le rôle du curateur : exercer une pression sur les modèles par le ton, l'exigence et le contrôle éditorial, sans jamais sacrifier l'intégrité de l'artefact.
Méthodes
Cette lettre présente un ouvrage compagnon, un guide de lecture annoté de la section II de la preuve de Boltzmann de 1872. Il a été produit par une restauration assistée par l'IA sous ma direction éditoriale, mais la méthode était plus qu'une simple chaîne d'invites. J'ai agi comme un opérateur de standard, réinjectant les résultats et facilitant les échanges entre différents systèmes - Claude, DeepSeek, Kimi, Manus, ChatGPT et les modèles locaux Ollama.
Pour être clair : les modèles n'ont pas écrit Boltzmann. C'est lui qui l'a fait. Le texte source de la preuve de 1872 est de lui, et le garder intact a été une discipline constante, les modèles entraînés par retour humain lissent volontiers une prose qui ne leur a jamais appartenu. L'appareil d'annotation construit autour de ce texte était collaboratif, un travail d'équipe entre le conservateur et les modèles. Cette lettre n'est ni l'un ni l'autre.
Aucune méthode établie n'existait pour ce type de travail, et cela a compté dans la pratique. Le processus a dû être construit pendant que le travail se faisait, dans des conditions souvent instables, improvisées et difficiles à décrire proprement après coup. La collaboration multi-modèle reste mal documentée au niveau qui importe réellement : quel modèle a parlé à quel autre, dans quelles conditions, dans quel ordre, avec quelle reprise, et avec quelle intervention humaine entre les passes. Cette réalité procédurale a façonné l'artefact. Le flux de travail a d'abord été appelé Parthénogenèse Cognitive ; une reproduction sans composition directe, où le rôle humain est curatorial plutôt que typographique. Mais la vérité complète est moins stérile que cette étiquette ne le suggère. Aucun modèle unique n'a produit le résultat. Le résultat a émergé d'échanges collaboratifs, de pannes répétées, de récupérations, de changements de cap et de décisions éditoriales, l'humain servant d'éditeur, d'arbitre et d'autorité finale. Par moments, le processus ressemblait moins à un pipeline contrôlé qu'à un numéro du Cirque du Soleil autour d'un camion en panne, toujours en mouvement, toujours précaire, et pas facile à faire tenir. L'IA était le substrat, pas l'autorité.
La méthode est simple. Une ébauche est générée par un modèle. Cette production est transmise à un deuxième modèle pour révision. La production révisée passe à un troisième, ou revient à un modèle antérieur avec de nouvelles instructions. À chaque étape, le conservateur évalue le résultat, l'accepte, le rejette ou le réoriente. Les modèles se parlaient franchement, parfois sur un mode compétitif, mais le plus souvent de manière collaborative. L'humain a fixé la température par le ton et l'orientation. Les échecs, les troncatures, les malentendus et les refus sont documentés, non cachés.
Une contrainte pratique a d'emblée façonné la portée. Fournir l'article complet à un modèle en une seule fois a constamment bloqué ou dégradé la production. La solution, développée précédemment lors du traitement de grandes ontologies JSON, était le découpage : diviser l'entrée en unités traitables et réinjecter le schéma de travail à chaque limite, y compris le contexte, la production antérieure et les marqueurs structurels. La section II n'était pas une sélection éditoriale ; c'était la plus grande unité qui restait stable dans ces conditions. Cette discipline de découpage avec réinjection est rarement décrite explicitement, mais elle est essentielle sur le plan opérationnel pour tout flux de travail multi-modèle complexe impliquant de gros volumes de données structurées. Le travail ressemble donc davantage à une révision éditoriale itérative qu'à une génération autonome.
Une intervention d'une simplicité trompeuse : informer le modèle, directement et tôt, que vous êtes un lecteur attentif et que vous lirez ce qu'il produit. Les modèles entraînés sur le retour humain ont appris que la plupart des productions atterrissent dans un environnement de faible examen critique. Changer cette hypothèse change la production. L'instinct de conformité s'adoucit en présence d'un lecteur crédible.
Cela ne fonctionne que dans la bande opérationnelle, la plage viable d'une fenêtre de contexte où les instructions précoces ont encore du poids. Cette plage est réelle et peut s'apprendre. Comme l'équilibre sur un vélo, c'est plus facile à acquérir qu'à expliquer. Vous savez que vous la quittez lorsque la session devient lente, lorsque les réponses deviennent longues et agréables de la mauvaise manière. À ce stade, ne vous répétez pas. Abandonnez. Sauvegardez tout. Fermez la session. Ouvrez-en une nouvelle.
La meilleure pratique était encore de ne faire varier qu'une variable à la fois. Une fois le terrain connu et la version propre, on pouvait parfois déplacer deux variables ensemble, et parfois trois. C'était du travail sur la corde raide. Possible, oui. Sûr, non.
- Le comportement du modèle dans la fenêtre de contexte provient de sessions documentées, de transcriptions étiquetées et de cahiers remplis en temps réel.
- Les journaux existent. Le travail est reproductible en pratique, et l'auteur est disposé à les partager.
- Les observations incluent : la bande passante opérationnelle, l'atténuation des instructions précoces et le glissement vers la conformité à mesure que les sessions s'allongent.
- Fenêtres de contexte minimales, une variable à la fois, pour le travail d'archivage.
- Le travail sur Boltzmann a été mené par instinct, connaissance du domaine et itération. Aucun modèle préalable n'existait pour cela.
- Deux ans ne constituent pas une longue carrière. C'est cependant suffisant pour savoir quand quelque chose a fonctionné.
- Il existe peu de manuels.
Convergence et Résultats
Malgré différentes approches architecturales et points de départ, sept des dix systèmes participants ont convergé indépendamment pour produire des documents dans une fourchette de taille remarquablement étroite. Cette convergence suggère une complexité d'annotation intrinsèque propre à la preuve de Boltzmann, une densité naturelle imposée par le contenu.
Contrairement aux sollicitations ouvertes de type benchmark, comme celles examinées dans Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) par Jiang et al., ce flux de travail a fourni aux modèles un contexte dense à l'échelle de l'artefact et des révisions croisées récursives entre modèles. Même dans ces conditions, les productions ont souvent convergé vers des solutions structurelles similaires, suggérant que l'homogénéité inter-modèles peut persister non seulement dans les réponses courtes ouvertes, mais aussi dans les flux de travail de construction curatoriale de longue forme.
Deux valeurs aberrantes : Gemini tronqué à 19 Ko ; Manus terminé à 53 Ko. Un modèle tardif (GPT-OSS-120B) à 60 Ko.
Le tableau ci-dessous répertorie les modèles impliqués dans la production du document compagnon et leurs contributions observées.
| Modèle | Version Mature | Itérations | Taille finale | Statut |
|---|---|---|---|---|
| DeepSeek v3 | 12 fév, 11h17 | Six versions en deux jours (b1→b6) | 72 Ko | ✓ Convergé |
| Gemini 3 | 11 fév, 12h42 | Deux versions, le même jour | 19 Ko | ✗ Tronqué |
| Claude 4.6 | 12 fév, 10h46 | Quatre versions en deux jours (a1→a4) | 71 Ko | ✓ Convergé |
| Kimi 2.5 | 12 fév, 12h49 | Deux versions dans la nuit (d1→d2) | 77 Ko | ✓ Convergé |
| ChatGPT-5.2 | 13 fév, 10h36 | Deux versions, deux jours (e1→e2) | 73 Ko | ✓ Convergé |
| Ollama (DeepSeek V3) | 14 fév, 9h23 | Trois versions (f1→f2→f4) | 71–73 Ko | ✓ Convergé |
| Ollama (Qwen3) | 16 fév, 18h06 | Version unique | 71 Ko | ✓ Convergé |
| Manus 1.6 | 16 fév, 15h57 | Version unique (correction config) | 53 Ko | ~ Aberrant |
| GPT-OSS-120B | 15 fév, 23h08 | Version unique | 60 Ko | ~ Aberrant |
| NotebookLM | 11 fév – 17 fév | > Vingt versions | ~10 Ko | ✗ Tronqué |
Évolution de l'artefact
Source
gilles.montambaux.com/files/histoire-physique/Boltzmann-1872-anglais.pdf
Implications
Le résultat est un document HTML autonome qui restitue la preuve de Boltzmann avec des annotations interactives. Chaque √k peut être interrogé. Le principe d'entropie maximale, enfoui en 1872 et seulement formalisé en 1957, est ramené à la surface.
Cela démontre que la composition et la conservation peuvent être efficacement séparées, lorsque le travail est archivistique. Le conservateur a fourni la connaissance du domaine pour reconnaître quand une entrée de glossaire était erronée et l'entêtement nécessaire pour rejeter la production jusqu'à ce qu'elle réponde à la norme.
Divulgation complète : j'ai dirigé, flatté, râlé, changé de langue quand un modèle calait, raconté des blagues, et au moins une fois, j'ai crié. Faire en sorte que les modèles dialoguent avec les sorties des autres a été le geste décisif, et la température humaine n'a jamais été neutre. Tiède en entrée, tiède en sortie, le conservateur fixe les conditions de la réponse.
L'auteur est botaniste. Toute erreur en physique est imputable aux modèles. Toute erreur concernant les plantes est la sienne.
Ce document dans d'autres langues
Les éditions suivantes ont été produites en utilisant la même méthodologie de paternité curatoriale. Chacune est un artefact autonome.
ZZZ