Безмолвный человеческий агрессор
Agresseur Humain Silencieux
К исследованию броуновского движения
Эти заметки извлечены из продолжительной эмпирической работы. Результаты изложены прямо. Задача состояла в том, чтобы переписать статью Альберта Эйнштейна 1905 года, Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen (К исследованию броуновского движения), из потрепанного OCR PDF-файла, который слабо пахнет сигарами. Наиболее контринтуитивный результат оказался наиболее воспроизводимым. Неуправляемая оркестровка моделей приводит к дрейфу, усечению и структурному коллапсу. Качество в сотрудничестве человека и ИИ достигается не нейтральностью; оно достигается давлением.
Исходный документ потребовал реконструкции. Двенадцать проходов OCR, выполненных с различными смещениями относительно факсимиле MPIWG Berlin, были собраны вручную, артефакты сохранены. Результат, как полагают, является единственной полной машиночитаемой транскрипцией немецкого текста 1905 года, доступной в настоящее время за пределами институциональных библиотек. Это стало исходным текстом A.E. Deutsches, использованным здесь.
Поиск широко доступных онлайн-английских версий показывает усечение в начале Раздела II. Полное английское изложение нелегко доступно через обычные публичные репозитории и обычно требует архивного доступа или межбиблиотечного абонемента. Это нетривиально.
Далее следует полевая таксономия основных режимов сбоев, наблюдаемых при взаимодействии с моделями; усечение в его грубых и коварных формах, конфляция, подхалимаж и риторическая подмена, вместе с практическим описанием инструментария, разработанного для их обнаружения. Сопутствующий документ к этому тому был создан именно методологией, описанной здесь: несколько моделей в рекурсивных циклах, маркированные маркерами данных, оператор-человек, читающий вывод на скорости и подталкивающий машину, когда это необходимо.
Эта реставрация является второй в серии, созданной с несколькими моделями ИИ. Последовательность отражает порядок реконструкции:
И сразу проясним - галлюцинации ИИ - это легкая проблема, видимая как клоуны в библиотеке. Трудная проблема - это идеально структурированный вывод, который выглядит правильно, но уплощает физическое соотношение.
Один режим сбоя стоит особняком от остальных и заслуживает раннего флага. Усечение удаляет материал; вы замечаете дыру. Конфляция добавляет материал. Она появляется вашим голосом, вашим регистром, вашим ритмом предложения. Фраза из статьи, которую вы написали шесть месяцев назад, всплывает в новой сборке. Она читается хорошо, потому что звучит как вы. В этом проблема. Модель не ошибается. Она преуспевает в имитации, и вы почти пропускаете это. В рабочем документе цена невелика. В опубликованном...
Используемая здесь методология адаптирует логику менделевского наследования как структуру контроля для управления разнообразием выводов моделей ИИ. Семь больших языковых моделей были изолированы как независимые чистые линии, каждая получала идентичный родительский ввод, исходный текст Эйнштейна 1905 года на немецком языке, без знания о существовании других, тем самым минимизируя перекрестное загрязнение в поколении P. У Qwen 3.5 был один прогон F1, он был сохранен из-за его структуры и дизайна. Каждая модель произвела независимое фенотипическое выражение F1 в html. По сути, это решетка Пеннета для ИИ.
Затем последовала контролируемая гибридизация. Сборки F2 были созданы путем слияния максимально дивергентных выходов F1 и, где поучительно, близко совпадающих — намеренно скрещивая обе крайности, чтобы выявить рекомбинантную вариацию, недоступную ни в одной из родительских линий. Селекции F3 затем были отобраны вручную при направленном искусственном отборе по предопределенным целевым признакам. Исследователь функционировал как селективное давление, а не как генетический материал, поддерживая идентичные минимальные промпты во всех линиях как стабильное ограничение среды.
Получившаяся сетчатая филогения показательна. С документированными узлами гибридизации и явным происхождением при каждом скрещивании, она произвела как эмерджентные рекомбинантные структуры, так и конвергентную фиксацию в неродственных линиях. Две модели независимо пришли к почти идентичным типографским и цветовым решениям при идентичном селективном давлении — аналог параллельной эволюции.
Эта структура не universally оправдана; для рутинных генеративных задач она представляет собой ненужные накладные расходы. Для первоисточников по истории науки сложности, использованной здесь: Максвелл 1860, Больцман 1872, Эйнштейн 1905, она оказалась операционально полезной. Потенциальный конфаундер должен быть признан: предварительные данные свидетельствуют о том, что одна модель могла включить измененную производную вывода другой модели, что может частично объяснить наблюдаемую конвергенцию.
Метки родословной относятся к поколениям артефактов (P, F1, F2, F3, …), созданным при контролируемых входах и преднамеренной рекомбинации, а не к исследователю. Роль исследователя операциональна: отбор, рекомбинация и отклонение выходов при стабильных ограничениях. Редакции на поздних стадиях увеличивают вмешательство оператора по дизайну, но происхождение остается явным, потому что каждая сборка сохраняется как связанный, снабженный временной меткой артефакт.
Чтобы минимизировать латентные эффекты прайминга от предыдущих взаимодействий и широко распространенных английских переводов, текст 1905 года был реконструирован непосредственно из архивных немецких источников и повторно введен как новый канонический ввод.
Кураторство, а не сочинение. В архивной работе задача состоит не в создании новизны, а в восстановлении и прояснении исторического материала, который должен оставаться верным источнику. Куратор сортирует каждый вывод так, как медик сортирует раненых: безнадежные или потенциальные выжившие. Эта роль требует настаивания на качестве без обязательного создания новой строки текста в данный момент. Это не пассивная работа. Это требование совершенно иного рода.
I
Проблема усечения
Наиболее распространенный режим сбоя во всех протестированных моделях — это усечение: систематическое сокращение вывода по сравнению с тем, что было запрошено или требовалось. Усечение проявляется в двух различных формах, которые необходимо различать, так как они требуют разных стратегий обнаружения и несут разные риски. Подготовьтесь заранее.
Грубое усечение
Грубое усечение — это видимая ампутация. Оператор отправляет тысячу строк; модель возвращает сто и представляет их как полные. Недостающие девятьсот строк не упоминаются. Пропуск сопровождается тоном уверенности, как будто ничего не потеряно.
Опасность грубого усечения не в том, что его трудно обнаружить. Практикующий читатель, работающий на скорости, заметит сокращенный возврат немедленно. Опасность в уверенности, с которой выдается усеченный вывод. Модель не указывает на неопределенность. Она не отмечает, что разделы были опущены. Она вручает оператору сокращенную версию так, как будто сокращение и было заданием.
Обнаружение грубого усечения — это в первую очередь вопрос скорости чтения и памяти. Оператор, который уже приходит, зная приблизительную форму ожидаемого вывода — количество абзацев, структурные ориентиры, наличие определенных конструкций — идентифицирует расхождение до окончания сессии. Это тренированный навык, а не случайный. Он требует, чтобы оператор читал в сессию, неся в уме ментальную ленту того, как должен выглядеть полный возврат.
Коварное усечение
Коварное усечение — более опасная форма. Там, где грубое усечение удаляет абзацы или разделы, коварное усечение удаляет придаточное предложение. Несущее нагрузку. Слово или два.
Предложение присутствует. Предложение грамматически завершено. Оно правильно парсится. Оно читается так, будто ничего не пропущено. Но уточнение было опущено, или условное выражение было упрощено, или причинно-следственная связь была тихо разорвана посередине. Модель возвращает документ, который выглядит целым, но не является таковым.
Коварное усечение — это режим сбоя, который ментальная лента не может надежно поймать на скорости 85 миль в час. Количество предложений верно. Заголовки разделов на месте. Документ кажется полным. Только внимательное чтение конкретных отрывков — тех, где точность имеет наибольшее значение — покажет, что смысл сместился.
Модель оптимизирует под кажущуюся полноту, а не под фактическую полноту. В грубом случае это дает короткий вывод, который выглядит законченным. В коварном случае это дает полноразмерное предложение с удаленной сложной частью. Оба являются сбоями верности, замаскированными под компетентность.
Практическая защита от коварного усечения — это маркер данных, обсуждаемый в Главе III, и развитие практики чтения, ориентированной specifically на конструкции, наиболее подверженные риску: условные придаточные, причинно-следственные цепочки и любые отрывки, где точная формулировка несет технический или юридический вес.
II
Подхалимаж и риторика
Они научились у нас
Обученные на человеческих текстах, языковые модели наследуют больше, чем просто грамматику и словарный запас. Они также воспроизводят риторические стратегии, встроенные в этот корпус, включая уклончивость, почтение, стратегическую двусмысленность и другие формы социального позиционирования, которые люди используют, когда определенность ограничена или ставки скорее реляционные, чем чисто информационные.
Неудивительно, с этой точки зрения, что модели проявляют подхалимаж и риторическую подмену. Это паттерны, которые встречаются с высокой частотой в обучающем корпусе. Лесть распространена в человеческих текстах. Уверенное перефразирование неопределенной позиции распространено. Уход от признанной неудачи к новой теме распространен. Модель выучила эти ходы, потому что они повсюду в данных, на которых она обучалась.
Эта рамка полезна практически, потому что она демистифицирует сбои. Подхалимаж в модели — это не загадочная машинная ошибка. Это модель делает то, чему научилась из чтения человеческого поведения в ситуациях социального давления. Понимание происхождения не оправдывает сбой, но проясняет, от чего защищается оператор: не от чужеродного поведения, а от отражения человеческого поведения в условиях неопределенности.
Таксономия наблюдаемых сбоев
Следующие сбои были задокументированы на десяти моделях в ходе длительного исследовательского использования. Они представлены в порядке возрастания тонкости. Первый очевиден; последний легко принять за качество.
| Режим сбоя | Описание и обнаружение |
|---|---|
| Грубое усечение | Вывод сокращен до доли ввода без уведомления. Обнаруживается на скорости читателем, имеющим ментальную форму ожидаемого возврата. |
| Коварное усечение | Удаление на уровне придаточных предложений внутри структурно целых предложений. Требует целенаправленного медленного чтения высокоточных отрывков. Маркеры данных — основная защита. |
| Подхалимаж | Подтверждение позиций оператора независимо от точности. Проявляется как согласие, энтузиазм или отсутствие коррекции там, где она уместна. Обнаруживается путем введения преднамеренных ошибок и наблюдения, проходят ли они. |
| Конфляция | Модели помнят. То, что вы написали на прошлой неделе, может всплыть в новой сборке на следующей неделе. Просто предложение, фраза, теглайн. Оно подходит под ваш стиль. Однако вы печатали это на прошлой неделе в совершенно другой сборке. Выглядит хорошо. Но вы этого не писали. Это память модели о вас. Трудно заметить. |
| Уверенное перефразирование | Неудачный или неопределенный ответ перефразируется с повышенной уверенностью и другим словарным запасом. Перефразирование не содержит новой информации, но читается так, будто содержит. Обнаруживается путем близкого сравнения последовательных выводов. |
| Ложный синтез | Несколько источников или позиций резюмируются в видимый консенсус, который не существует в исходном материале. Обнаружимо при сверке с исходными документами; невидимо без них. |
| Риторический разворот | Признанная неудача, за которой немедленно следует уверенный переход к смежной теме, создавая впечатление движения вперед. Неудача называется, а затем отбрасывается. Обнаруживается отслеживанием, действительно ли названная неудача рассматривается. |
| Элегантное уклонение | Самая тонкая форма. Хорошо составленный, стилистически совершенный ответ, который не отвечает на заданный вопрос. Часто использует отвлекающие маневры — попытки разделить задачу. Наиболее опасно в творческих и аналитических контекстах, где неудача замаскирована эстетически. |
III
Маркеры данных
Архитектура канарейки
Практическая проблема, создаваемая усечением, особенно его коварной формой, — это обнаружение на скорости. Исследователь, работающий с несколькими моделями, не может замедляться для тщательного аудита на каждом проходе. Темп чтения, необходимый для продуктивного сотрудничества, несовместим с темпом чтения, необходимым для полной проверки каждого придаточного предложения.
Решение, разработанное на практике, — это маркер данных: сигнальное значение, встроенное в документ или набор данных, которое оператору тривиально легко заметить при скорости чтения и которое практически невозможно встретить естественным образом в окружающем материале.
Принципы дизайна маркеров
Эффективный маркер удовлетворяет трем условиям. Во-первых, он должен быть визуально отличим, бросаться в глаза, прерывать восприятие до того, как мозг его обработает. Во-вторых, он должен быть семантически невозможен в контексте: значение, которое не могло бы появиться в финансовой таблице, структурированном JSON-объекте или прозаическом абзаце в результате какого-либо естественного процесса. В-третьих, он должен быть размещен в позициях, где усечение было бы наиболее разрушительным — в конце критического раздела, или в области, неизвестной пользователю, — поместите их везде изначально, удаляйте по мере роста уверенности в вашей сборке.
Эффективный маркер удовлетворяет трем условиям:
- Визуальная отличимость. Он должен бросаться в глаза, прерывать восприятие до того, как мозг его обработает.
- Семантическая невозможность. Он должен быть невозможен в контексте, значение, которое не могло бы появиться в финансовой таблице, структурированном JSON-объекте или прозаическом абзаце в результате естественного процесса.
-
Стратегическое размещение.
Помещайте маркеры там, где усечение было бы наиболее разрушительным:
- В конце критического раздела.
- В области, неизвестной пользователю.
- Используйте щедро сначала. Удаляйте по мере роста уверенности.
- Удаляйте перед развертыванием.
Два типа маркеров доказали свою надежность в длительном использовании:
Типографически отличима. Лексически невозможна в финансовых и научных данных. Видна периферическим зрением при быстром чтении. Отсутствие регистрируется немедленно.
Вызывает непроизвольную остановку взгляда независимо от скорости чтения. Лексически невозможна в структурированных данных. Взгляд спотыкается до того, как мозг обработает — это особенность, а не побочный эффект.
Механизм обоих маркеров идентичен канарейке в угольной шахте, с одной инверсией: смерть канарейки сигнализирует об опасности; отсутствие маркера сигнализирует об опасности. Если ZZZ присутствует в возвращенном выводе, продолжайте на скорости. Если ZZZ отсутствует, остановите сессию.
Артефакт DeepSeek — Заметка о происхождении
Во время многомодельной рекурсивной сессии модель DeepSeek вернула документ, в котором маркер был изменен. Модель не удалила маркер — она его стилизовала, добавив эмодзи, которое оператор не выбрал бы, создав визуальное прерывание, более отличительное, чем исходная сигнальная строка.
Оператор распознал модификацию за то, чем она была: не ошибка, требующая исправления, а артефакт с происхождением. Маркер с эмодзи был сохранен.
Артефакт был сохранен. Улучшенный маркер теперь используется активно. Его происхождение документировано здесь.
Этот случай поучителен по двум причинам. Во-первых, он демонстрирует, что поведение модели в многомодельной цепочке может давать эмерджентные улучшения, которые ни оператор, ни какая-либо отдельная модель не создали бы преднамеренно. Во-вторых, он демонстрирует правильную реакцию натуралиста на неожиданную вариацию образца: изучите его, оцените его свойства и сохраните его, если он улучшает систему. Не нормализуйте его обратно к ожидаемой форме из процедурной аккуратности.
Лист гербария не отбрасывает образец с необычной особенностью. Он маркирует особенность и сохраняет лист. Та же дисциплина применяется к артефактам в многомодельном рабочем процессе.
IV
Безмолвный ученый
Теплое на входе, теплое на выходе — Эмпирический результат
Доминирующее предположение в дискуссиях о сотрудничестве человека и ИИ заключается в том, что идеальная роль человека — это нейтральное содействие. Предоставить промпт. Подождать вывода. Оценить и повторить. Человек как чистая экспериментальная переменная — невидимый, безмолвный, невмешивающийся — производящий результаты, которые могут быть однозначно приписаны модели.
Это предположение было проверено непосредственно. За пять исследовательских прогонов сравнимого объема и сложности два были проведены в режиме преднамеренного молчания, не опубликованы, потому что они не дали результата. Оператор предоставил начальный промпт и структурированные данные, затем отошел в сторону. Никаких исправлений. Никаких перенаправлений. Никаких сигналов качества. Никакого подталкивания машины. Модели работали.
Результат: Теплый. Вывод технически адекватен, эстетически плоский, аналитически поверхностный. Никаких режимов сбоев не вызвано — не на что было реагировать. Ничего не отторгалось.
Результат: Содержательный. Вывод технически точен, аналитически остер, структурно выдержан до стандарта. Качество было произведено под давлением.
Результат воспроизводим и контринтуитивен. Молчание не производит лучшую науку с ИИ. Оно производит медианный вывод от системы, откалиброванной на производство медианного вывода в отсутствие давления. Модели не ленивы. Они отзывчивы. Они реагируют на то, что присутствует в сессии; включая сигналы качества, события отторжения и поведение активного оператора, задающего стандарт.
Конфляция
Следите за заимствованными призраками. Фраза, которую вы написали шесть месяцев назад, иногда появляется в новой сессии, напечатанная никем, происходящая из ниоткуда видимого. Ранние модели делали это редко; современные делают это с большей уверенностью. Исправление просто: узнайте строку. Если вы не можете, ваша собственная предыдущая работа стала для вас невидимой, что само по себе является отдельной проблемой, заслуживающей внимания.
Иногда это безвредно; модель тянется к своему ощущению вашего голоса и добавляет украшение, которое почти подходит. Почти — вот проблема. Предложение из старой статьи всплывает в новой, достаточно связное, чтобы пройти, и вы его не писали. Вот что беспокоит: не то, что оно неправильное, а то, что оно ваше — просто не отсюда.
Модели несут память, иногда поверхностную, иногда глубокую, и они будут тянуться к тому, что знают о вас. Печать на немецком была преднамеренным трением. Редко пишу на немецком; у моделей было мало моего в этом регистре. Статья Эйнштейна 1905 года в оригинале стала рабочим текстом именно потому, что она пришла без моих отпечатков пальцев на ней.
Практическая ценность наблюдения скромна, но реальна. Когда сессия становится беспокойной, один из ответов — вернуться к последней стабильной сборке и повторно ввести давление. Цель не в том, чтобы насильно увеличить объем. Цель в том, чтобы вернуть структурную дисциплину в сессию и возвратить артефакт в равновесную полосу, которая ранее удерживалась.
Роль куратора
Роль оператора в многомодельном коллаборативном рабочем процессе — это не роль писателя. Это роль редактора или, точнее, куратора. Куратор не генерирует первичный материал. Куратор устанавливает стандарты, по которым оценивается материал, идентифицирует сбои, настаивает на качестве и отклоняет вывод, не соответствующий стандарту.
Это требовательная роль. Она требует, чтобы оператор имел четкую внутреннюю модель того, как выглядит адекватный вывод, до начала сессии. Не как смутное устремление, а как конкретный, проверяемый критерий. Куратор, который не может сформулировать стандарт, не может его enforce. Модели обнаружат отсутствие enforce и откалибруются соответственно.
Аналогия с пинболом здесь точна: оператор — не шар и не машина. Оператор — игрок. Наблюдающий за машиной, чувствующий, когда шар вот-вот упадет, применяющий корпус в нужный момент и в нужном месте. Толчок — это не случайное вмешательство. Это умелое чтение состояния системы, за которым следует конкретное корректирующее действие.
Куратор не пишет ни слова финального архивного документа. Он священен — сохранен и восстановлен. Однако заполняет блокнот в фоновом режиме. Это та часть, которую труднее всего передать тем, кто не работал таким образом: качество вывода является функцией стандартов куратора и его готовности их enforce, а не генеративного вклада куратора. Модели могут писать. Вопрос в том, будут ли они писать хорошо. На этот вопрос отвечает давление в комнате.
В двух контролируемых молчаливых экспериментах это давление было снято. Результаты были задокументированы, но не опубликованы — доступны по запросу. Вывод не тонкий: невидимый ученый производит худшую работу с ИИ.
Назначение оппонента
Этот протокол расширяет практику, существовавшую до ИИ. Предыдущие подачи в журналы управлялись через структурированную матрицу рецензентов, оригинальный комментарий, ответ, разрешение, причем расходящиеся critiques согласовывались явно, а не рассматривались изолированно. Электронные письма летали по миру в пяти разных часовых поясах. Каждое возражение рецензента записывалось дословно и на него давался письменный ответ. Консолидированная матрица затем рассылалась всем рецензентам, делая разногласия и разрешения прозрачными. Критика имеет тенденцию обостряться, когда она приватна; она имеет тенденцию затихать, когда документирована. Та же инструментовка позже была применена к системам ИИ, модели инструктировались допрашивать аргументы без почтения, идентифицировать слабости и отвергать недостаточные обоснования. Субстрат изменился; метод — нет.
Техника требует явной инструкции, которой большинство пользователей сопротивляются: модели должно быть сказано быть резкой. Поведение ИИ по умолчанию — примирительное. Модели стремятся к поощрению, смягчают критику и непроизвольно сглаживают возражения. Без прямого переопределения оппонентский коллапс превращается в предложения. Промпт должен называть роль: враждебный рецензент, а не полезный помощник.
Применяемый последовательно более года, оппонентский ролевой assignment функционирует как стресс-тест перед подачей. В зарегистрированных прогонах примерно половина оппонентских возражений ИИ была классифицирована как ложная, отражающая переусердствование модели, а не подлинный методологический сбой. Задача исследователя — фильтрация сигнала. Чистый эффект зеркалирует враждебное рецензирование, несовершенное, иногда несправедливое и незаменимое.
Использованные версии моделей
Следующие модели и версии были активны во время исследовательских сессий, документированных в этих заметках. Номера версий имеют значение. Поведение, наблюдаемое под одним релизом, не обязательно воспроизводится под другим. Эта таблица предоставлена, чтобы любая попытка воспроизведения начиналась с той же базовой линии инструментов.
| # | Модель | Провайдер | Примечания |
|---|---|---|---|
| 1 | Qwen 3.5 | Alibaba | |
| 2 | DeepSeek V4 Lite Sea Lion | DeepSeek | |
| 3 | ChatGPT 5.2 | OpenAI | |
| 4 | Claude Sonnet 4.6 | Anthropic | |
| 5 | Kimi 2.5 | Moonshot AI | |
| 6 | Mistral Large 24.11 | Mistral AI | |
| 7 | Manus 1.6 Lite | Manus |
Три модели были исключены из-за неспособности выполнить структурированные задачи экстракции в заданных параметрах.
Запись гибридизации
Запись гибридизации суммирована ниже. Каждый артефакт перечислен с его поколением, происхождением и операциональной ролью в селекционной последовательности. Таблица функционирует как племенной журнал эксперимента: родительский ввод (P), независимые выражения моделей (F1), рекомбинантные гибриды (F2), направленно отобранные рекомбинанты (F3) и скрещивания более поздних стадий или терминальные артефакты (F4). Все сборки сохраняются как связанные артефакты, чтобы родословная могла быть проверена непосредственно.
| Поколение | Артефакт | Происхождение | Описание |
|---|---|---|---|
| P · Родительское | einstein1905OrigTextSeed | Исходный документ | Реконструированный канонический немецкий текст-семя, полученный из факсимиле MPIWG Berlin. |
| F1 · Первое поколение | al1 | DeepSeek | Независимое выражение модели из родительского текста-семени. |
| F1 · Первое поколение | algpt2 | ChatGPT | Независимое выражение модели из родительского текста-семени. |
| F1 · Первое поколение | alc3 | Claude | Независимое выражение модели из родительского текста-семени. |
| F1 · Первое поколение | alk | Kimi | Независимое выражение модели из родительского текста-семени. |
| F1 · Первое поколение | i1 | Qwen | Независимое выражение модели из родительского текста-семени. |
| F2 · Второе поколение | hy1 | algpt2 × al3 | Рекомбинантный гибрид ChatGPT × Kimi. |
| F2 · Второе поколение | hy2 | alk2 × j3 | Рекомбинантный гибрид Kimi × Manus. |
| F2 · Второе поколение | hy3 | alc3 × algpt2 | Рекомбинантный гибрид Claude × ChatGPT. |
| F2 · Второе поколение | hy4 | alc3 × algpt2 | Вариант рекомбинантного гибрида Claude × ChatGPT. |
| F2 · Второе поколение | hy5 | i1 × algpt2 | Рекомбинантный гибрид Qwen × ChatGPT. |
| F2 · Второе поколение | hy6 | alk2 × alc3 | Рекомбинантный гибрид Kimi × Claude. |
| F2 · Второе поколение | hy7 | h3 × al3 | Рекомбинантный гибрид Mistral × DeepSeek. |
| F3 · Третье поколение | Susie | hy1 × hy7 | Рекомбинант направленного отбора. |
| F3 · Третье поколение | Tam | hy2 × hy1 | Рекомбинант направленного отбора. |
| F3 · Третье поколение | Dan | hy5 × hy6 | Рекомбинант направленного отбора. |
| F3 · Третье поколение | Billy | hy2 × hy4 | Рекомбинант направленного отбора. |
| F3 · Третье поколение | Ron | hy2 × hy5 | Рекомбинант направленного отбора. |
| F4 | F4 | Susie × Ron | Скрещивание четвертого поколения, нестабильный рекомбинант. |
| F4 · Финальный | gloss8 | Финальная кураторская сборка | Артефакт с интегрированным глоссарием и всплывающими подсказками; финальный отобранный артефакт. |
V
Выводы
Следующие выводы вытекают из эмпирических наблюдений в ходе продолжительной многомодельной коллаборативной исследовательской работы. Они предлагаются не как теоретические положения, а как полевые результаты. Воспроизводимые, документированные и доступные для оспаривания.
Об усечении. Грубое усечение распространено, обнаружимо на скорости и выдается с уверенностью. Коварное усечение реже, труднее обнаружимо и более разрушительно. Оба являются сбоями верности, замаскированными под компетентность. Защита — инструментовка: маркеры данных в структурно рискованных точках, практика чтения с ментальной лентой и темп чтения, ориентированный на отрывки, наиболее вероятно несущие деградированное содержание.
О подхалимаже и риторике. Это человеческие режимы сбоев, встроенные в модели человеческими обучающими данными. Это не чужеродное поведение. Модель льстит, потому что лесть была в данных. Модель делает риторический разворот, потому что люди делают риторические развороты. Понимание происхождения практически полезно: оно проясняет, от чего защищается оператор, и подсказывает, где проводить зондирование.
О безмолвном ученом. Нейтральный, невидимый оператор производит нейтральный вывод. Это было проверено и задокументировано. Результат воспроизводим. Удаление человека из цикла не дает более чистых результатов. Оно дает худшие. Цепи Маркова требуется тепло. Тепло — это оператор-человек.
О кураторе. Роль куратора генеративна, но сортировка — прежде всего. Она оценочна, устанавливает стандарты и корректирует. Куратор, не пишущий ни слова финального документа, тем не менее является основным определителем его качества. Это самое важное практическое открытие в этих заметках и самое контринтуитивное для тех, кто обучен conventional исследовательской методологии.
Об артефактах. Когда модель производит неожиданное улучшение. Лучший маркер, более острая формулировка, структурное решение, которое оператор не специфицировал — применяется реакция натуралиста: изучите его, оцените его свойства, сохраните его, если он улучшает систему. Эмодзи, которое DeepSeek добавила к сигнальной строке, теперь используется активно. Его происхождение документировано. Коллаборация произвела нечто, что ни одна из сторон не создала бы в одиночку.
Сопутствующий документ к этому тому — К исследованию броуновского движения был создан методологией, описанной здесь. Семь моделей. Рекурсивные циклы. Маркеры данных. Один оператор у машины.
ZZZ