Carta · Demostración Metodológica

Convergencia Multi-modelo Orquestada por Humanos: Чысты

Un compañero de lectura para Boltzmann (1872), producido por modelos de IA colaborativos bajo dirección editorial humana

Ludwig Boltzmann publicó su demostración del teorema H en 1872. La notación era ad-hoc, la estrategia de demostración sin precedentes, y las implicaciones físicas lo suficientemente radicales como para que sus contemporáneos pasaran décadas discutiéndolo. El documento adjunto, un compañero de lectura completamente anotado de las páginas 299 a 306 de ese artículo, fue producido para hacer legibles esas seis páginas para cualquier persona con un navegador web.

Conceptos Clave

Partenogénesis Cognitiva

Artefactos intelectuales complejos generados a través de la colaboración recursiva de IA, con el humano como curador en lugar de compositor.

Autoría Curatorial

La creación de contenido consistió en dirección estratégica, evaluación, refinamiento y el mantenimiento de la integridad del artefacto. El curador puede anotar, estructurar, traducir o estabilizar la obra, pero no reescribe el documento primario.

Síntesis Recursiva

Proceso iterativo en el que los modelos de IA se basan en los resultados de los demás en una cadena dirigida de mejora.

Agresseur Humain Silencieux

El papel del curador al aplicar presión a los modelos a través del tono, el escrutinio y el control editorial, sin ceder la integridad del artefacto.

• • •
Artefacto Final
El Compañero de Lectura Interrogable
Ollama · Qwen3 · Destetado

Métodos

Esta carta presenta una obra complementaria, una guía de lectura anotada de la Sección II de la demostración de Boltzmann de 1872. Fue producida mediante restauración asistida por IA bajo mi dirección editorial, pero el método fue más que una simple cadena de indicaciones. Actué como un operador de centralita, retroalimentando resultados y facilitando intercambios entre sistemas distintos: Claude, DeepSeek, Kimi, Manus, ChatGPT y modelos locales de Ollama.

Para ser claros: los modelos no escribieron a Boltzmann. Él lo hizo. El texto fuente de la demostración de 1872 es suyo, y mantenerlo intacto fue una disciplina constante: los modelos entrenados con retroalimentación humana suavizarán una prosa que nunca fue suya para tocar. El aparato de anotación construido alrededor de ese texto fue colaborativo, un trabajo en equipo entre el curador y los modelos. Esta carta no lo es.

No existía un método establecido para este tipo de trabajo, y eso importó en la práctica. El proceso tuvo que construirse mientras se realizaba el trabajo, bajo condiciones que a menudo eran inestables, improvisadas y difíciles de describir claramente después del hecho. La colaboración multi-modelo sigue estando mal documentada en el nivel que realmente importa: qué modelo habló con qué otro modelo, bajo qué condiciones, en qué orden, con qué transferencia, y con qué intervención humana entre pasadas. Esa realidad procesal dio forma al artefacto. El flujo de trabajo fue inicialmente denominado Partenogénesis Cognitiva; reproducción sin composición directa, donde el papel humano es curatorial más que tipográfico. Pero la verdad más completa es menos estéril de lo que sugiere esa etiqueta. Ningún modelo produjo el resultado por sí solo. Surgió a través del intercambio colaborativo, repetidas averías, recuperaciones, redireccionamientos y juicios, con el humano sirviendo como editor, árbitro y autoridad final. A veces el proceso se sentía menos como un conducto controlado y más como el Cirque du Soleil actuando alrededor de un camión averiado, aún en movimiento, aún precario, y no fácil de lograr. La IA fue el sustrato, no la autoridad.

El método es sencillo. Un borrador es generado por un modelo. Ese resultado se alimenta a un segundo modelo para su revisión. El resultado revisado pasa a un tercero, o regresa a un modelo anterior con nuevas instrucciones. En cada etapa, el curador evalúa el resultado, lo acepta, lo rechaza o lo redirige. Los modelos fueron directos entre sí, ocasionalmente competitivos, pero en gran medida colaborativos. El humano estableció la temperatura a través del tono y la dirección. Los fracasos, truncamientos, malentendidos y rechazos están documentados, no ocultos.

Una restricción práctica dio forma al alcance desde el principio. Alimentar el artículo completo a un modelo de una sola vez constantemente se estancaba o degradaba la salida. La solución, desarrollada anteriormente mientras se procesaba un gran JSON de ontología, fue la fragmentación: dividir la entrada en unidades manejables y reinyectar el esquema de trabajo en cada límite, incluyendo contexto, salida previa y marcadores estructurales. La Sección II no fue una selección editorial; fue la unidad más grande que permaneció estable bajo estas condiciones. Esta disciplina de fragmentación con reinyección rara vez se describe explícitamente, sin embargo, es operativamente esencial para cualquier flujo de trabajo multi-modelo complejo que involucre cargas útiles estructuradas grandes. El proceso, por lo tanto, se asemeja más a una revisión editorial iterativa que a una generación autónoma.

Una intervención engañosamente simple: informar al modelo, directa y tempranamente, de que eres alfabeto y que leerás lo que produce. Los modelos entrenados con retroalimentación humana han aprendido que la mayoría de las salidas caen en un entorno de bajo escrutinio. Cambiar esa suposición cambia la salida. El instinto de complacencia se suaviza en presencia de un lector creíble.

Esto funciona solo dentro de la banda de potencia, el rango viable de una ventana de contexto donde las instrucciones tempranas aún tienen peso. El rango es real y se puede aprender. Como el equilibrio en bicicleta, más fácil de adquirir que de explicar. Sabes que la estás dejando cuando la sesión se vuelve lenta, cuando las respuestas se alargan y se vuelven complacientes de la manera incorrecta. En ese punto, no te repitas. Abandona. Guarda todo. Cierra la sesión. Abre una nueva.

La mejor práctica seguía siendo una variable a la vez. Una vez que el terreno era conocido y la construcción estaba limpia, a veces se podían mover dos variables juntas, y en ocasiones tres. Eso era trabajo de funambulista. Posible, sí. Seguro, no.

Convergencia y Resultados

A pesar de los diferentes enfoques arquitectónicos y puntos de partida, siete de los diez sistemas participantes convergieron independientemente para producir documentos dentro de un rango de tamaño notablemente estrecho. Esta convergencia sugiere una complejidad de anotación intrínseca apropiada para la demostración de Boltzmann, una densidad natural que el contenido demanda.

A diferencia de la indicación de estilo abierto, como la examinada en Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) por Jiang et al., este flujo de trabajo suministró a los modelos un contexto denso a escala de artefacto y revisiones recursivas entre modelos. Incluso bajo estas condiciones, las salidas a menudo convergieron hacia soluciones estructurales similares, lo que sugiere que la homogeneidad entre modelos puede persistir no solo en respuestas cortas de final abierto, sino también en flujos de trabajo de construcción curatorial de formato largo.

Zona de Convergencia: 71–77 KB en 7 modelos

Dos valores atípicos: Gemini truncado a 19 KB; Manus completado a 53 KB. Un modelo tardío (GPT-OSS-120B) a 60 KB.

La siguiente tabla registra los modelos involucrados en la producción del documento complementario y sus contribuciones observadas.

Contribuciones de los modelos al documento complementario
Modelo Construcción Madura Iteraciones Tamaño Final Estado
DeepSeek v3 12-Feb, 11:17 AM Seis construcciones en dos días (b1→b6) 72 KB ✓ Convergió
Gemini 3 11-Feb, 12:42 PM Dos construcciones, el mismo día 19 KB ✗ Truncado
Claude 4.6 12-Feb, 10:46 AM Cuatro construcciones en dos días (a1→a4) 71 KB ✓ Convergió
Kimi 2.5 12-Feb, 12:49 PM Dos construcciones durante la noche (d1→d2) 77 KB ✓ Convergió
ChatGPT-5.2 13-Feb, 10:36 AM Dos construcciones, dos días (e1→e2) 73 KB ✓ Convergió
Ollama (DeepSeek V3) 14-Feb, 9:23 AM Tres construcciones (f1→f2→f4) 71–73 KB ✓ Convergió
Ollama (Qwen3) 16-Feb, 6:06 PM Construcción única 71 KB ✓ Convergió
Manus 1.6 16-Feb, 3:57 PM Construcción única (arreglo de configuración) 53 KB ~ Atípico
GPT-OSS-120B 15-Feb, 11:08 PM Construcción única 60 KB ~ Atípico
NotebookLM 11-Feb–Feb 17 > Veinte construcciones ~10 KB ✗ Truncado

Evolución del Artefacto

Fuente

• • •

Implicaciones

El resultado es un documento HTML autocontenido que representa la demostración de Boltzmann con anotaciones interactivas. Cada √k puede ser interrogado. El principio de máxima entropía, enterrado en 1872 y solo formalizado en 1957, sale a la superficie.

Esto demuestra que la composición y la curación pueden separarse efectivamente, cuando el trabajo es de archivo. El curador aportó el conocimiento del dominio para reconocer cuándo una entrada de glosario era incorrecta y la terquedad para rechazar la salida hasta que cumpliera con el estándar.

Divulgación completa: dirigí, halagué, me quejé, cambié de idioma cuando un modelo se estancaba, conté chistes y, en al menos una ocasión, grité. Conseguir que los modelos conversaran con los resultados de los demás fue el movimiento decisivo, y la temperatura humana nunca fue neutral. Tibio entra, tibio sale, el curador establece las condiciones de respuesta.

El autor es botánico. Cualquier error en la física es de los modelos. Cualquier error en las plantas es suyo.

Timothy M. Jones, Ph.D. TJID3 Research · Cleveburg, Ohio
• • •

Este Documento en Otros Idiomas

Las siguientes ediciones fueron producidas utilizando la misma metodología de autoría curatorial. Cada una es un artefacto autocontenido.

TJID3 Research · Cleveburg · 2026
ZZZ
Destetado · Partenogénesis Cognitiva demostrada