Convergencia Multi-modelo Orquestada por Humanos: Чысты
Ludwig Boltzmann publicó su demostración del teorema H en 1872. La notación era ad-hoc, la estrategia de demostración sin precedentes, y las implicaciones físicas lo suficientemente radicales como para que sus contemporáneos pasaran décadas discutiéndolo. El documento adjunto, un compañero de lectura completamente anotado de las páginas 299 a 306 de ese artículo, fue producido para hacer legibles esas seis páginas para cualquier persona con un navegador web.
Conceptos Clave
Artefactos intelectuales complejos generados a través de la colaboración recursiva de IA, con el humano como curador en lugar de compositor.
La creación de contenido consistió en dirección estratégica, evaluación, refinamiento y el mantenimiento de la integridad del artefacto. El curador puede anotar, estructurar, traducir o estabilizar la obra, pero no reescribe el documento primario.
Proceso iterativo en el que los modelos de IA se basan en los resultados de los demás en una cadena dirigida de mejora.
El papel del curador al aplicar presión a los modelos a través del tono, el escrutinio y el control editorial, sin ceder la integridad del artefacto.
Métodos
Esta carta presenta una obra complementaria, una guía de lectura anotada de la Sección II de la demostración de Boltzmann de 1872. Fue producida mediante restauración asistida por IA bajo mi dirección editorial, pero el método fue más que una simple cadena de indicaciones. Actué como un operador de centralita, retroalimentando resultados y facilitando intercambios entre sistemas distintos: Claude, DeepSeek, Kimi, Manus, ChatGPT y modelos locales de Ollama.
Para ser claros: los modelos no escribieron a Boltzmann. Él lo hizo. El texto fuente de la demostración de 1872 es suyo, y mantenerlo intacto fue una disciplina constante: los modelos entrenados con retroalimentación humana suavizarán una prosa que nunca fue suya para tocar. El aparato de anotación construido alrededor de ese texto fue colaborativo, un trabajo en equipo entre el curador y los modelos. Esta carta no lo es.
No existía un método establecido para este tipo de trabajo, y eso importó en la práctica. El proceso tuvo que construirse mientras se realizaba el trabajo, bajo condiciones que a menudo eran inestables, improvisadas y difíciles de describir claramente después del hecho. La colaboración multi-modelo sigue estando mal documentada en el nivel que realmente importa: qué modelo habló con qué otro modelo, bajo qué condiciones, en qué orden, con qué transferencia, y con qué intervención humana entre pasadas. Esa realidad procesal dio forma al artefacto. El flujo de trabajo fue inicialmente denominado Partenogénesis Cognitiva; reproducción sin composición directa, donde el papel humano es curatorial más que tipográfico. Pero la verdad más completa es menos estéril de lo que sugiere esa etiqueta. Ningún modelo produjo el resultado por sí solo. Surgió a través del intercambio colaborativo, repetidas averías, recuperaciones, redireccionamientos y juicios, con el humano sirviendo como editor, árbitro y autoridad final. A veces el proceso se sentía menos como un conducto controlado y más como el Cirque du Soleil actuando alrededor de un camión averiado, aún en movimiento, aún precario, y no fácil de lograr. La IA fue el sustrato, no la autoridad.
El método es sencillo. Un borrador es generado por un modelo. Ese resultado se alimenta a un segundo modelo para su revisión. El resultado revisado pasa a un tercero, o regresa a un modelo anterior con nuevas instrucciones. En cada etapa, el curador evalúa el resultado, lo acepta, lo rechaza o lo redirige. Los modelos fueron directos entre sí, ocasionalmente competitivos, pero en gran medida colaborativos. El humano estableció la temperatura a través del tono y la dirección. Los fracasos, truncamientos, malentendidos y rechazos están documentados, no ocultos.
Una restricción práctica dio forma al alcance desde el principio. Alimentar el artículo completo a un modelo de una sola vez constantemente se estancaba o degradaba la salida. La solución, desarrollada anteriormente mientras se procesaba un gran JSON de ontología, fue la fragmentación: dividir la entrada en unidades manejables y reinyectar el esquema de trabajo en cada límite, incluyendo contexto, salida previa y marcadores estructurales. La Sección II no fue una selección editorial; fue la unidad más grande que permaneció estable bajo estas condiciones. Esta disciplina de fragmentación con reinyección rara vez se describe explícitamente, sin embargo, es operativamente esencial para cualquier flujo de trabajo multi-modelo complejo que involucre cargas útiles estructuradas grandes. El proceso, por lo tanto, se asemeja más a una revisión editorial iterativa que a una generación autónoma.
Una intervención engañosamente simple: informar al modelo, directa y tempranamente, de que eres alfabeto y que leerás lo que produce. Los modelos entrenados con retroalimentación humana han aprendido que la mayoría de las salidas caen en un entorno de bajo escrutinio. Cambiar esa suposición cambia la salida. El instinto de complacencia se suaviza en presencia de un lector creíble.
Esto funciona solo dentro de la banda de potencia, el rango viable de una ventana de contexto donde las instrucciones tempranas aún tienen peso. El rango es real y se puede aprender. Como el equilibrio en bicicleta, más fácil de adquirir que de explicar. Sabes que la estás dejando cuando la sesión se vuelve lenta, cuando las respuestas se alargan y se vuelven complacientes de la manera incorrecta. En ese punto, no te repitas. Abandona. Guarda todo. Cierra la sesión. Abre una nueva.
La mejor práctica seguía siendo una variable a la vez. Una vez que el terreno era conocido y la construcción estaba limpia, a veces se podían mover dos variables juntas, y en ocasiones tres. Eso era trabajo de funambulista. Posible, sí. Seguro, no.
- El comportamiento del modelo dentro de la ventana de contexto se extrae de sesiones documentadas, transcripciones etiquetadas y cuadernos llenados en tiempo real.
- Los registros existen. El trabajo es repetible en la práctica, y el autor está dispuesto a compartirlo.
- Las observaciones incluyen: la banda de potencia, la atenuación de las instrucciones tempranas y el cambio hacia la complacencia a medida que se extienden las sesiones.
- Ventanas de contexto mínimas, una variable a la vez para trabajo de archivo.
- El trabajo de Boltzmann se hizo por instinto, conocimiento del dominio e iteración. No existía ninguna plantilla para ello.
- Dos años de esto no es una larga carrera. Es, sin embargo, suficiente para saber cuándo algo funcionó.
- Hay pocos libros de reglas.
Convergencia y Resultados
A pesar de los diferentes enfoques arquitectónicos y puntos de partida, siete de los diez sistemas participantes convergieron independientemente para producir documentos dentro de un rango de tamaño notablemente estrecho. Esta convergencia sugiere una complejidad de anotación intrínseca apropiada para la demostración de Boltzmann, una densidad natural que el contenido demanda.
A diferencia de la indicación de estilo abierto, como la examinada en Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) por Jiang et al., este flujo de trabajo suministró a los modelos un contexto denso a escala de artefacto y revisiones recursivas entre modelos. Incluso bajo estas condiciones, las salidas a menudo convergieron hacia soluciones estructurales similares, lo que sugiere que la homogeneidad entre modelos puede persistir no solo en respuestas cortas de final abierto, sino también en flujos de trabajo de construcción curatorial de formato largo.
Dos valores atípicos: Gemini truncado a 19 KB; Manus completado a 53 KB. Un modelo tardío (GPT-OSS-120B) a 60 KB.
La siguiente tabla registra los modelos involucrados en la producción del documento complementario y sus contribuciones observadas.
| Modelo | Construcción Madura | Iteraciones | Tamaño Final | Estado |
|---|---|---|---|---|
| DeepSeek v3 | 12-Feb, 11:17 AM | Seis construcciones en dos días (b1→b6) | 72 KB | ✓ Convergió |
| Gemini 3 | 11-Feb, 12:42 PM | Dos construcciones, el mismo día | 19 KB | ✗ Truncado |
| Claude 4.6 | 12-Feb, 10:46 AM | Cuatro construcciones en dos días (a1→a4) | 71 KB | ✓ Convergió |
| Kimi 2.5 | 12-Feb, 12:49 PM | Dos construcciones durante la noche (d1→d2) | 77 KB | ✓ Convergió |
| ChatGPT-5.2 | 13-Feb, 10:36 AM | Dos construcciones, dos días (e1→e2) | 73 KB | ✓ Convergió |
| Ollama (DeepSeek V3) | 14-Feb, 9:23 AM | Tres construcciones (f1→f2→f4) | 71–73 KB | ✓ Convergió |
| Ollama (Qwen3) | 16-Feb, 6:06 PM | Construcción única | 71 KB | ✓ Convergió |
| Manus 1.6 | 16-Feb, 3:57 PM | Construcción única (arreglo de configuración) | 53 KB | ~ Atípico |
| GPT-OSS-120B | 15-Feb, 11:08 PM | Construcción única | 60 KB | ~ Atípico |
| NotebookLM | 11-Feb–Feb 17 | > Veinte construcciones | ~10 KB | ✗ Truncado |
Evolución del Artefacto
Fuente
gilles.montambaux.com/files/histoire-physique/Boltzmann-1872-anglais.pdf
Implicaciones
El resultado es un documento HTML autocontenido que representa la demostración de Boltzmann con anotaciones interactivas. Cada √k puede ser interrogado. El principio de máxima entropía, enterrado en 1872 y solo formalizado en 1957, sale a la superficie.
Esto demuestra que la composición y la curación pueden separarse efectivamente, cuando el trabajo es de archivo. El curador aportó el conocimiento del dominio para reconocer cuándo una entrada de glosario era incorrecta y la terquedad para rechazar la salida hasta que cumpliera con el estándar.
Divulgación completa: dirigí, halagué, me quejé, cambié de idioma cuando un modelo se estancaba, conté chistes y, en al menos una ocasión, grité. Conseguir que los modelos conversaran con los resultados de los demás fue el movimiento decisivo, y la temperatura humana nunca fue neutral. Tibio entra, tibio sale, el curador establece las condiciones de respuesta.
El autor es botánico. Cualquier error en la física es de los modelos. Cualquier error en las plantas es suyo.
Este Documento en Otros Idiomas
Las siguientes ediciones fueron producidas utilizando la misma metodología de autoría curatorial. Cada una es un artefacto autocontenido.
ZZZ