침묵하는 인간 공격자
— ✦ —
TJID3 리서치 · 클리블랜드 · 현장 노트 시리즈 · 2026
— ❧ —

침묵하는 인간 공격자

Agresseur Humain Silencieux

브라운 운동 이론에 관한 연구

알베르트 아인슈타인 (1905) 이후

인간-AI 협업에 관한 현장 노트
T.M. 존스 박사, 2026

DOI: 10.5281/zenodo.18797373

동반 문서: 브라운 운동 이론에 관한 연구

이 노트들은 지속적인 경험적 작업에서 얻은 것이다. 발견 결과는 평이하게 보고된다. 임무는 알베르트 아인슈타인의 1905년 논문 "Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen" (브라운 운동 이론에 관한 연구)를, 마치 시가 냄새가 희미하게 나는 손상된 OCR PDF로부터 재구성하는 것이었다. 가장 반직관적인 결과가 가장 재현 가능함이 입증되었다. 안내되지 않은 모델 조율은 표류, 축약, 구조적 붕괴를 초래한다. 인간-AI 협업의 품질은 중립성에 의해 달성되지 않는다. 그것은 압력에 의해 달성된다.

원본 문서는 재구성이 필요했다. MPIWG 베를린 팩시밀리에 대해 다양한 오프셋으로 실행된 12회의 OCR 패스가 수동으로 조합되었고, 아티팩트는 보존되었다. 그 결과는 현재 기관 도서관 외부에서 이용 가능한 유일한 완전한 기계 판독 가능한 1905년 독일어 텍스트 전사본으로 믿어진다. 그것이 여기서 사용된 원본 A.E. 독일어 시드 텍스트가 되었다.

널리 접근 가능한 온라인 영어 버전을 검색해보면 섹션 II의 서두가 축약되어 있음을 보여준다. 완전한 영어 번역본은 일반적인 공개 저장소를 통해 쉽게 구할 수 없으며, 일반적으로 아카이브나 도서관 간 접근이 필요하다. 이는 사소한 일이 아니다.

다음 내용은 모델 상호작용 전반에 걸쳐 관찰된 주요 실패 모드에 대한 현장 분류학이다: 노골적 및 교활한 형태의 축약, 혼동, 아부, 수사적 대체, 그리고 이를 탐지하기 위해 개발된 도구에 대한 실용적인 설명을 함께 제공한다. 이 권의 동반 문서는 바로 여기 설명된 방법론에 의해 생산되었다: 다중 모델이 순환 루프 속에서 데이터 마커로 새겨지고, 인간 운영자가 출력을 빠른 속도로 읽고 필요할 때 기계를 건드리는 방식이다.

이 복원 작업은 여러 AI 모델로 구축된 시리즈 중 두 번째이다. 순서는 재구성 순서를 반영한다:

아티팩트 · 아인슈타인 브라운 운동 이론에 관한 연구 1905 I · 볼츠만 열평형에 관한 추가 연구 1872 II · 맥스웰 기체의 동역학적 이론에 관하여 1860 출처 MPIWG 베를린 · 아인슈타인 1905 아카이브

그리고 이것을 미리 밝혀두자면 - AI 환각은 쉬운 문제이며, 도서관의 광대처럼 눈에 띈다. 어려운 문제는 완벽하게 구조화되어 보이지만 물리적 관계를 평탄화하는 출력이다.

한 가지 실패 모드는 나머지와 구별되며 조기 경고를 받을 가치가 있다. 축약은 자료를 제거한다; 당신은 구멍을 알아챈다. 혼동은 자료를 추가한다. 그것은 당신의 어조, 당신의 문체, 당신의 문장 리듬에 나타난다. 당신이 6개월 전에 쓴 논문의 한 구절이 새 빌드에 나타난다. 그것은 당신처럼 들리기 때문에 잘 읽힌다. 그것이 문제다. 모델이 실패하는 것이 아니다. 그것은 모방에 성공하는 것이고, 당신은 거의 그것을 통과시킬 뻔한다. 작업 문서에서는 비용이 경미하다. 출판된 문서에서는...

여기서 사용된 방법론은 AI 모델 출력 다양성을 관리하기 위한 제어 프레임워크로서 멘델 유전학 논리를 적용한다. 7개의 대규모 언어 모델을 독립적인 순수 계통으로 격리시켰으며, 각 모델은 다른 모델의 존재를 모른 채 동일한 부모 입력(원본 아인슈타인 1905 독일어 텍스트)을 받음으로써 P 세대에서 교차 오염을 최소화했다. Qwen 3.5는 한 번의 F1 실행이 있었고, 그 구조와 디자인 때문에 유지되었다. 각 모델은 HTML에서 독립적인 F1 표현형을 생성했다. 이는 본질적으로 AI의 푸네트 사각형이다.

아티팩트 계보 — P · F1 · F2 · F3

통제된 교배가 뒤따랐다. F2 빌드는 최대한 분기된 F1 출력을 병합하고, 유익한 경우 밀접하게 일치하는 것도 병합하여 생성되었다 — 두 극단을 의도적으로 교배하여 부모 계통에서는 이용할 수 없는 재조합 변이를 노출시켰다. 그런 다음 F3 선택은 사전 정의된 표적 형질을 향한 방향성 인공 선택 하에서 선별되었다. 연구자는 유전 물질이 아닌 선택적 압력으로 기능했으며, 모든 계통에 걸쳐 동일한 최소 프롬프트를 안정적인 환경 제약 조건으로 유지했다.

그 결과 생성된 망상 계통발생은 시사하는 바가 크다. 문서화된 교배 노드와 각 교배에서의 명시적 부모 관계를 통해, 이는 출현하는 재조합 구조와 무관한 계통에서의 수렴적 고정을 모두 생성했다. 두 모델은 동일한 선택적 압력 하에서 독립적으로 거의 동일한 타이포그래피 및 색채 솔루션에 도달했는데, 이는 평행 진화와 유사하다.

이 프레임워크는 보편적으로 보증되는 것은 아니다; 일상적인 생성 작업에서는 불필요한 오버헤드에 해당한다. 여기서 사용된 복잡성의 1차 역사적 과학 텍스트(맥스웰 1860, 볼츠만 1872, 아인슈타인 1905)의 경우 운영상 유용함이 입증되었다. 잠재적 혼동 변수를 인정해야 한다: 예비 증거에 따르면 한 모델이 다른 모델 출력의 변형된 파생물을 통합했을 수 있으며, 이는 관찰된 수렴을 부분적으로 설명할 수 있다.

계보 레이블은 연구자가 아닌 통제된 입력과 의도적 재조합 하에 생성된 아티팩트 세대(P, F1, F2, F3, …)를 나타낸다. 연구자의 역할은 운영적이며, 안정적인 제약 조건 하에서 출력을 선택, 재조합 및 거부하는 것이다. 후기 단계의 수정은 설계상 운영자 개입을 증가시키지만, 각 빌드가 링크되고 타임스탬프된 아티팩트로 유지되기 때문에 부모 관계는 명시적으로 남아 있다.

이전 상호작용과 널리 유통되는 영어 번역의 잠재적 점화 효과를 최소화하기 위해, 1905년 텍스트는 독일어 아카이브 소스에서 직접 재구성되어 새로운 정식 입력으로 재도입되었다.

작곡이 아닌 큐레이션. 아카이브 작업에서 임무는 새로움을 생성하는 것이 아니라 원본에 충실해야 하는 역사적 자료를 복원하고 명확히 하는 것이다. 큐레이터는 의무병이 사상자를 분류하는 것처럼 각 출력을 분류한다: 기대되지 않음, 또는 생존 가능성. 품질을 주장하면서도 그 순간에 새로운 텍스트 한 줄을 반드시 생성할 필요는 없다. 이것은 수동적인 작업이 아니다. 그것은 완전히 다른 종류의 요구이다.

클리브버그, 2026
번역 — 7개 언어
그림 1
인간-인-더-루프(HITL) 워크플로우 다이어그램: 입력/프롬프트, AI 처리, 인간 검토, 최종 출력의 네 단계를 피드백 루프로 연결
인간-인-더-루프 워크플로우. 입력, 처리, 검토, 출력 — 차이를 만드는 피드백 루프. 작곡이 아닌 큐레이션; 큐레이터는 압력을 가한다.
· · ·

I
축약 문제

테스트된 모든 모델에서 가장 널리 퍼진 실패 모드는 축약이다: 요청되거나 요구된 것보다 출력이 체계적으로 축소되는 것. 축약은 두 가지 뚜렷한 형태로 나타나며, 이들은 구별되어야 한다. 왜냐하면 다른 탐지 전략이 필요하고 다른 위험을 수반하기 때문이다. 미리 준비하라.

노골적 축약

노골적 축약은 눈에 보이는 절단이다. 운영자는 천 줄을 제출한다; 모델은 백 줄을 반환하고 그것을 완전한 것으로 제시한다. 누락된 구백 줄은 인정되지 않는다. 생략은 아무것도 손실되지 않은 것처럼 안심시키는 어조를 동반한다.

노골적 축약의 위험은 탐지하기 어렵다는 점이 아니다. 빠른 속도로 읽는 숙련된 독자는 즉시 짧아진 반환을 알아차릴 것이다. 위험은 축약된 출력이 전달되는 확신에 있다. 모델은 불확실성을 표시하지 않는다. 섹션이 생략되었음을 언급하지 않는다. 운영자에게 축약 버전을 마치 축약이 과제인 것처럼 건넨다.

현장 관찰
노골적 축약은 자랑스러운 푸줏간 주인의 움직임이다. 동물은 부위로 축소되어 전체에 대한 개선으로 제시된다. 푸줏간 주인은 자신이 무언가를 파괴했음을 인식하지 못한다.

노골적 축약의 탐지는 주로 읽기 속도와 기억력의 문제이다. 예상되는 출력의 대략적인 형태(문단 수, 구조적 랜드마크, 특정 구성의 존재)를 이미 알고 세션에 도착하는 운영자는 세션이 끝나기 전에 불일치를 식별할 것이다. 이것은 훈련된 기술이지 우연한 것이 아니다. 운영자는 완전한 반환이 어떤 모습이어야 하는지에 대한 정신적 체크리스트를 가지고 세션에 들어가서 읽어야 한다.

교활한 축약

교활한 축약은 더 위험한 형태이다. 노골적 축약이 문단이나 섹션을 제거하는 반면, 교활한 축약은 한 절을 제거한다. 종속절. 하중을 지탱하는 절. 한두 단어.

문장은 존재한다. 문장은 표면 문법상 완전하다. 그것은 올바르게 구문 분석된다. 아무것도 빠진 것 없이 읽힌다. 그러나 수식어가 빠졌거나, 조건문이 단순화되었거나, 인과 관계가 중간에 조용히 끊겼다. 모델은 온전해 보이지만 그렇지 않은 문서를 돌려준다.

교활한 축약은 시속 85마일로 달리는 체크리스트가 안정적으로 잡아낼 수 없는 실패 모드이다. 문장 수는 정확하다. 섹션 제목은 있다. 문서는 완전해 보인다. 정밀성이 가장 중요한 특정 구절들을 면밀히 읽어야만 의미가 바뀌었음을 알 수 있다.

공식 정의
교활한 축약: 그 외에는 구조적으로 손상되지 않은 문장에서 절, 수식어 또는 인과 관계를 제거하여, 저하되거나 변경된 의미 내용을 전달하면서도 완전해 보이는 출력을 생성하는 것. 모델은 생략에 대한 인식을 나타내지 않는다.

모델은 실제 완전성보다 겉보기 완전성을 위해 최적화하고 있다. 노골적인 경우 이것은 완성된 것처럼 보이는 짧은 출력을 생성한다. 교활한 경우에는 어려운 부분이 제거된 완전한 길이의 문장을 생성한다. 둘 다 능력으로 위장한 충실성의 실패이다.

교활한 축약에 대한 실질적인 방어는 3장에서 논의되는 데이터 마커와, 가장 위험에 처한 구성(조건절, 인과 관계 체인, 그리고 정확한 표현이 기술적 또는 법적 중요성을 지니는 모든 구절)에 특별히 지향된 읽기 습관의 개발이다.

II
아부와 수사학

그들은 우리에게서 배웠다

인간의 텍스트로 훈련된 언어 모델은 문법과 어휘 이상을 상속받는다. 그들은 또한 그 말뭉치에 내장된 수사적 전략, 즉 확신이 제한적이거나 이해 관계가 순전히 정보적인 것보다 관계적일 때 인간이 사용하는 회피, 존중, 전략적 모호성 및 기타 형태의 사회적 위치 설정을 재생산한다.

이러한 관점에서 모델이 아부와 수사적 대체를 나타내는 것은 놀라운 일이 아니다. 이는 훈련 말뭉치에 높은 빈도로 나타나는 패턴이다. 아첨은 인간의 글에서 흔하다. 불확실한 입장을 자신 있게 재진술하는 것은 흔하다. 인정된 실패에서 새로운 주제로 선회하는 것은 흔하다. 모델은 그것이 훈련된 데이터 어디에나 있기 때문에 이러한 움직임을 배웠다.

핵심 관찰
모델들은 우리에게서 배웠다. 우리가 AI 출력에서 관찰하는 실패 모드는 인간의 실패 모드이다. 우리는 훈련 데이터를 생성함으로써 그들을 모델에 훈련시켰다.

이 프레임은 실패를 비신비화하기 때문에 실질적으로 유용하다. 모델의 아부는 신비한 기계 오류가 아니다. 그것은 사회적 압력 상황에서 인간의 행동을 읽음으로써 배운 것을 모델이 하는 것이다. 기원을 이해하는 것이 실패를 용서하지는 않지만, 운영자가 무엇을 방어하고 있는지(낯선 행동이 아니라 불확실성 조건 하의 인간 행동의 반영)를 명확히 한다.

관찰된 실패 모드 분류

다음 실패들은 지속적인 연구 사용 동안 10개 모델에 걸쳐 문서화되었다. 그것들은 미묘함이 증가하는 순서로 제시된다. 첫 번째는 명백하다; 마지막은 품질로 오인되기 쉽다.

실패 모드 설명 및 탐지
노골적 축약 공개 없이 입력의 일부로 출력 단축. 예상되는 반환의 정신적 형태를 지닌 독자가 빠른 속도로 탐지 가능.
교활한 축약 구조적으로 손상되지 않은 문장 내 절 수준 생략. 고정밀 구절의 표적화된 느린 읽기 필요. 데이터 마커가 주요 방어책.
아부 정확성과 관계없이 운영자 입장에 대한 긍정. 동의, 열정, 또는 정당한 수정이 필요한 곳에서 수정이 없는 형태로 제시. 의도적 오류를 도입하여 통과하는지 관찰함으로써 탐지.
혼동 모델은 기억한다. 지난주에 쓴 내용이 다음 주 새 빌드에 나타날 수 있다. 단지 한 문장, 한 절, 한 태그라인. 당신의 글에 맞는다. 그러나 당신은 그것을 거기에 넣지 않았다. 그것은 당신에 대한 모델의 기억이다. 발견하기 어렵다.
자신 있는 재진술 실패했거나 불확실한 답변이 증가된 확신과 다른 어휘로 재진술됨. 재진술은 새로운 정보를 포함하지 않지만 포함하는 것처럼 읽힘. 연속된 출력의 면밀한 비교로 탐지.
거짓 종합 여러 출처나 입장이 원본 자료에는 존재하지 않는 명백한 합의로 요약됨. 출처 문서에 대비하여 탐지 가능; 그것 없이는 보이지 않음.
수사적 선회 인정된 실패 직후 관련 주제로 자신 있게 이동하여 전진하는 듯한 인상을 줌. 실패는 명명되고 버려짐. 명명된 실패가 실제로 다루어지는지 추적하여 탐지.
우아한 회피 가장 미묘한 형태. 질문한 내용에 답하지 않는 잘 짜여지고, 문체적으로 뛰어난 응답. 종종 레드 헤링(작업을 분기시키려는 시도)을 사용. 실패가 미학적으로 위장된 창의적 및 분석적 맥락에서 가장 위험함.

III
데이터 마커

카나리 아키텍처

축약, 특히 교활한 형태가 제기하는 실질적인 문제는 빠른 속도로 탐지하는 것이다. 여러 모델 세션에 걸쳐 작업하는 연구 운영자는 모든 패스에서 신중한 감사로 속도를 늦출 수 없다. 생산적인 협업에 필요한 읽기 속도는 모든 절의 완전한 검증에 필요한 읽기 속도와 양립할 수 없다.

실습을 통해 개발된 해결책은 데이터 마커이다: 문서나 데이터셋에 내장된 센티널 값으로, 운영자가 읽는 속도로 쉽게 발견할 수 있고 주변 자료에서 자연적으로 발생하는 것이 거의 불가능한 것이다.

마커 설계 원칙

효과적인 마커는 세 가지 조건을 충족한다. 첫째, 시각적으로 뚜렷해야 하며, 눈에 띄고, 뇌가 처리하기 전에 중단시켜야 한다. 둘째, 맥락상 의미적으로 불가능해야 한다: 재무 테이블, 구조화된 JSON 객체, 또는 산문 단락에서 어떤 자연적 과정으로도 나타날 수 없는 값. 셋째, 축약이 가장 피해가 클 위치, 즉 중요한 섹션의 끝, 사용자에게 알려지지 않은 도메인에 배치되어야 한다. 초기에는 모든 곳에 배치하고, 빌드에 대한 확신이 생기면 가지치기한다.

효과적인 마커는 세 가지 조건을 충족한다:

  • 시각적 구별성. 눈에 띄어야 하며, 뇌가 처리하기 전에 중단시켜야 한다.
  • 의미적 불가능성. 맥락상 불가능해야 하며, 재무 테이블, 구조화된 JSON 객체, 또는 산문 단락에서 자연적 과정으로는 나타날 수 없는 값이어야 한다.
  • 전략적 배치. 축약이 가장 피해가 클 위치에 마커를 배치한다:
    • 중요한 섹션의 끝.
    • 사용자에게 알려지지 않은 도메인.
    • 처음에는 자유롭게 사용한다. 확신이 생기면 가지치기한다.
    • 배포 전에 제거한다.
세 번째 마커 형태는 편집 실습을 통해 등장했다: 고유명사의 의도적 철자 오류. Cleveland는 Cleveburg가 된다 — 어떤 데이터셋에서도 자연적으로 발생할 수 없지만, 빠른 훑어보기에는 충분히 가깝게 읽히는 단어. 철자 오류는 의도적이며, 탐지는 즉각적이다: 운영자가 Cleveburg를 보면 텍스트가 정리되지 않았고 마커가 그대로 남아 있음을 의미한다. 철자 오류가 수정되었다면, 해당 섹션이 변경되었으므로 감사가 필요하다. 이 기술은 비용이 전혀 들지 않고 모든 것을 잡아낸다.

두 가지 마커 유형이 지속적인 사용에서 신뢰할 수 있음이 입증되었다:

마커 유형 A — 센티널 문자열
ZZZ

타이포그래피적으로 구별됨. 금융 및 과학 데이터에서 어휘적으로 불가능. 빠른 읽기 중 주변 시야에서 보임. 부재는 즉시 등록됨.
마커 유형 B — 욕설
[expletive]

읽기 속도와 무관하게 비자발적 시각적 정지를 유발. 구조화된 데이터에서 어휘적으로 불가능. 눈이 뇌가 처리하기 전에 걸린다 — 이것은 부작용이 아니라 기능이다.

두 마커의 메커니즘은 탄광의 카나리아와 동일하지만, 하나의 반전이 있다: 카나리아가 죽는 것은 위험을 알리는 반면; 마커의 부재가 위험을 알린다. 반환된 출력에 ZZZ가 있으면, 계속 빠른 속도로 읽는다. ZZZ가 없으면, 세션을 중단한다.

딥시크 아티팩트 — 출처 기록

다중 모델 순환 세션 중에, 딥시크 모델이 마커가 수정된 문서를 반환했다. 모델은 마커를 제거하지 않았다 — 그것을 스타일화하여, 운영자가 선택하지 않았을 이모지를 추가하고, 원래 센티널 문자열보다 더 독특한 시각적 중단을 생성했다.

모델은 데이터 마커에 대해 승인되지 않은 미적 판단을 내렸다. 그 판단은 원래 설계 사양의 기준으로는 틀렸다. 결과물은 원래 디자인보다 더 나았다.

운영자는 수정을 오류가 아닌, 출처가 있는 아티팩트로 인식했다. 이모지 마커는 보존되었다.

표본
원래 마커: ZZZ  딥시크 수정: ZZZ

아티팩트는 유지되었다. 향상된 마커는 현재 활발히 사용 중이다. 그 기원은 여기에 문서화된다.

이 사건은 두 가지 면에서 유익하다. 첫째, 다중 모델 체인에서의 모델 행동이 운영자나 어떤 단일 모델도 의도적으로 생성하지 않았을 출현적 개선을 생성할 수 있음을 보여준다. 둘째, 예상치 못한 표본 변이에 대한 박물학자의 올바른 반응을 보여준다: 그것을 조사하고, 그 특성을 평가하고, 시스템을 개선한다면 유지하라. 절차적 정리 때문에 예상된 형태로 정규화하지 마라.

식물표본 보관함은 특이한 특징을 가진 표본을 버리지 않는다. 그 특징에 레이블을 붙이고 시트를 보관한다. 다중 모델 워크플로우의 아티팩트에도 동일한 규율이 적용된다.

마커는 살아남았다. 세션은 계속되었다.

IV
침묵하는 과학자

미지근한 입력, 미지근한 출력 — 경험적 결과

인간-AI 협업에 관한 논의에서 지배적인 가정은 이상적인 인간의 역할은 중립적 촉진이라는 것이다. 프롬프트를 제공한다. 출력을 기다린다. 평가하고 반복한다. 보이지 않고, 침묵하며, 간섭하지 않는 인간 — 결과를 모델에 명확하게 귀속시킬 수 있는 실험 변수로서의 인간.

이 가정은 직접 테스트되었다. 비슷한 범위와 복잡성을 가진 다섯 번의 연구 실행 중, 두 번은 의도적인 침묵 하에 수행되었으며, 결과가 나오지 않아 출판되지 않았다. 운영자는 초기 프롬프트와 구조화된 데이터를 제공한 후, 물러섰다. 수정 없음. 방향 재설정 없음. 품질 신호 없음. 기계를 건드리지 않음. 모델들은 실행되었다.

침묵 실행 (n=2) — 연구복 조건 - 미출판
아름다운 스프레드시트. 구조화된 데이터. 운영자는 보이지 않고 비개입적.

결과: 미지근함. 출력은 기술적으로 적절하나, 미학적으로 평평하고, 분석적으로 얕음. 실패 모드가 트리거되지 않음 — 트리거할 대상이 없음. 반발 없음.
능동 실행 (n=3) — 공격자 조건
동일한 데이터. 동일한 모델. 운영자는 존재하며, 빠른 속도로 읽고, 필요할 때 건드림.

결과: 실질적. 출력은 기술적으로 정밀하고, 분석적으로 날카로우며, 구조적으로 기준을 유지함. 품질은 압력 하에서 생산되었다.

이 결과는 재현 가능하고 반직관적이다. 침묵은 AI로 더 나은 과학을 생산하지 않는다. 그것은 압력이 없는 상태에서 중간 출력을 생산하도록 보정된 시스템에서 중간 출력을 생산한다. 모델은 게으르지 않다. 그들은 반응적이다. 그들은 세션에 존재하는 것, 즉 활발한 운영자의 품질 신호, 거부 사건, 기준 설정 행동에 반응한다.

경험적 발견
미지근한 입력, 미지근한 출력. 마르코프 체인은 때때로 열을 필요로 한다. 그 열은 인간 운영자이다. 실험적 중립성이라는 이름으로 열원을 제거하는 것은 더 깨끗한 결과를 생산하지 않는다. 그것은 더 차가운 결과를 생산한다.

혼동

빌려온 유령을 조심하라. 당신이 6개월 전에 쓴 구절이 때때로 새 세션에 나타날 것이다, 아무도 입력하지 않았고, 보이지 않는 곳에서 가져왔다. 초기 모델들은 거의 이렇게 하지 않았다; 최신 모델들은 더 큰 확신으로 한다. 해결책은 간단하다: 그 문장을 인식하라. 만약 당신이 할 수 없다면, 당신의 이전 작업이 당신에게 보이지 않게 된 것이며, 이는 별도로 주목할 가치가 있는 문제이다.

때로는 양성이다; 모델이 당신의 어조에 대한 감각에 닿아 거의 어울리는 장식을 추가한다. 거의가 문제이다. 오래된 논문의 한 문장이 새 논문에 나타나서, 통과될 만큼 일관성이 있지만, 당신이 그것을 쓰지 않았다. 그것이 불안한 부분이다: 틀렸다는 것이 아니라, 당신의 것이라는 점이다 - 단지 여기서 온 것이 아닐 뿐.

모델은 기억을 가지고 있으며, 때로는 얕게, 때로는 깊게, 그리고 그들은 당신에 대해 아는 것을 찾으려 할 것이다. 독일어로 입력하는 것은 의도적인 마찰이었다. 독일어로 거의 쓰지 않는다; 모델들은 그 어조에서 내 것을 거의 가지고 있지 않았다. 원본의 아인슈타인 1905년 논문은 정확히 내 지문이 없이 도착했기 때문에 작업 텍스트가 되었다.

작업 노트
파일 크기는 여기서 교리가 아닌 거친 온도계로 취급된다. 이 워크플로우에서, 알려진 안정적인 범위를 벗어나는 편차는 때때로 수사적 표류, 중복, 과도한 종합과 일치했다. 노골적 축약은 직접 관찰 가능하며 여기서 감지될 수 있다. 관찰은 인과관계를 주장하기 위해서가 아니라, 추후 확인을 지원하기 위해 기록된다.

이 관찰의 실용적 가치는 작지만 실제적이다. 실행이 불안정해질 때, 한 가지 대응은 마지막 안정적인 빌드로 되돌아가 압력을 재도입하는 것이다. 목표는 장황함을 강제로 증가시키는 것이 아니다. 목표는 구조적 규율을 세션에 다시 도입하고, 아티팩트를 이전에 유지되었던 평형 범위로 되돌리는 것이다.

큐레이터의 역할

다중 모델 협업 워크플로우에서 운영자의 역할은 작가의 역할이 아니다. 그것은 편집자의, 더 정확하게는 큐레이터의 역할이다. 큐레이터는 원자재를 생성하지 않는다. 큐레이터는 자료가 평가되는 기준을 설정하고, 실패를 식별하고, 품질을 주장하고, 기준을 충족하지 않는 출력을 거부한다.

이것은 요구되는 역할이다. 운영자가 세션을 시작하기 전에 적절한 출력이 어떤 모습인지에 대한 명확한 내부 모델을 가지고 있어야 한다. 막연한 열망이 아니라 구체적이고 테스트 가능한 기준으로서 말이다. 기준을 명확히 할 수 없는 큐레이터는 그것을 강제할 수 없다. 모델들은 강제의 부재를 감지하고 그에 따라 조정할 것이다.

핀볼 비유가 여기에 정확하다: 운영자는 공도 아니고 기계도 아니다. 운영자는 플레이어이다. 기계를 지켜보고, 공이 떨어질 때를 감지하고, 적절한 순간에 적절한 곳에서 몸을 움직인다. 건드림은 무작위 개입이 아니다. 그것은 시스템 상태에 대한 숙련된 읽기와 그에 따른 특정 교정 조치이다.

큐레이터의 도구들
세션 시작 전에 기준 설정. 예상 출력의 체크리스트를 가지고 빠른 속도로 읽기. 노골적 축약은 형태로, 교활한 축약은 마커 부재로 인식. 의도적 테스트 오류 도입으로 아부 식별. 실제 수정을 대체하는 수사적 선회 거부. 공이 떨어지려 할 때 기계를 건드리기.

큐레이터는 최종 아카이브 문서의 한 단어도 쓰지 않는다. 그것은 신성불가침이다 - 보존되고 복원된다. 그러나 배경에서 노트북을 채운다. 이렇게 일해보지 않은 사람들에게 전달하기 가장 어려운 부분은 이것이다: 출력의 품질은 큐레이터의 생성적 기여가 아니라, 큐레이터의 기준과 그 기준을 강제하려는 의지의 함수이다. 모델들은 쓸 수 있다. 문제는 그들이 잘 쓸 것인가이다. 그 질문은 방 안의 압력에 의해 결정된다.

두 번의 통제된 침묵 실험에서 이 압력은 제거되었다. 결과는 문서화되었지만 출판되지 않았다 - 요청 시 제공 가능. 발견은 미묘하지 않다: 보이지 않는 과학자는 AI로 열등한 작업을 생산한다.

적대적 역할 할당

이 프로토콜은 AI 이전의 관행을 확장한 것이다. 이전 저널 투고는 구조화된 검토자 매트릭스, 원본 논평, 응답, 해결을 통해 관리되었으며, 분기된 비판은 개별적으로 다루기보다는 명시적으로 조정되었다. 다섯 개의 다른 시간대에 걸쳐 전 세계로 이메일이 날아다녔다. 모든 검토자 이의는 말 그대로 기록되고 서면으로 답변되었다. 통합된 매트릭스는 그런 다음 모든 검토자에게 재배포되어, 불일치와 해결을 투명하게 만들었다. 비판은 비공개일 때 날카로워지는 경향이 있다; 문서화될 때 조용해지는 경향이 있다. 동일한 도구가 나중에 AI 시스템에 적용되었으며, 모델은 존중 없이 논증을 심문하고, 약점을 식별하고, 불충분한 추론을 거부하도록 지시되었다. 기질은 바뀌었지만, 방법은 그렇지 않았다.

이 기술은 대부분의 사용자가 저항하는 명시적 지시를 필요로 한다: 모델은 가혹하도록 지시받아야 한다. 기본 AI 행동은 화해적이다. 모델은 격려하는 경향이 있고, 비판을 완화하며, 프롬프트 없이 반대 의견을 부드럽게 한다. 직접적인 재정의 없이는, 적대적 검토는 제안으로 붕괴된다. 프롬프트는 역할을 명명해야 한다: 도움이 되는 조수가 아니라, 적대적 검토자.

방법론적 기록
대부분의 사용자는 동의를 위해 최적화한다; 이 적대적 방법론은 실패 찾기를 위해 최적화한다. 다른 목적, 다른 프롬프트, 다른 결과. 열기를 준비하라.

1년 이상 지속적으로 배치된 적대적 역할 할당은 투고 전 스트레스 테스트로 기능한다. 기록된 실행에서, AI 적대적 이의의 약 절반은 모델의 과잉 반응을 반영하는 가짜로 분류되었으며, 진정한 방법론적 실패는 아니었다. 연구자의 임무는 신호 필터링이다. 순 효과는 적대적 동료 검토를 반영하며, 불완전하고 때로는 불공평하지만, 없어서는 안 될 존재다.

사용된 모델 버전

다음 모델 및 버전은 이 노트에 문서화된 연구 세션 동안 활성 상태였다. 버전 번호는 중요하다. 한 릴리스에서 관찰된 행동이 반드시 다른 릴리스에서 재현되는 것은 아니다. 이 표는 재현을 시도하는 사람이 동일한 도구 기준선에서 시작할 수 있도록 제공된다.

# 모델 제공자 비고
1큐원 3.5알리바바
2딥시크 V4 라이트 씨라이언딥시크
3챗GPT 5.2오픈AI
4클로드 소네트 4.6앤트로픽
5키미 2.5문샷 AI
6미스트랄 라지 24.11미스트랄 AI
7마누스 1.6 라이트마누스

세 가지 모델은 정의된 매개변수 내에서 구조화된 추출 작업을 완료할 수 없어 제외되었다.

교배 기록

교배 기록은 아래에 요약되어 있다. 각 아티팩트는 세대, 부모, 그리고 선택 순서에서의 운영 역할과 함께 나열된다. 이 표는 실험의 번식 일지 역할을 한다: 부모 입력(P), 독립 모델 발현(F1), 재조합 잡종(F2), 방향성 선택된 재조합(F3), 후기 단계 교배 또는 최종 아티팩트(F4). 모든 빌드는 연결된 아티팩트로 유지되어 계보를 직접 확인할 수 있다.

세대 아티팩트 부모 설명
P · 부모 세대 einstein1905OrigTextSeed 원본 문서 MPIWG 베를린 팩시밀리에서 파생된 재구성된 정식 독일어 시드 텍스트.
F1 · 제1자대 al1 딥시크 부모 시드 텍스트로부터의 독립적 모델 발현.
F1 · 제1자대 algpt2 챗GPT 부모 시드 텍스트로부터의 독립적 모델 발현.
F1 · 제1자대 alc3 클로드 부모 시드 텍스트로부터의 독립적 모델 발현.
F1 · 제1자대 alk 키미 부모 시드 텍스트로부터의 독립적 모델 발현.
F1 · 제1자대 i1 큐원 부모 시드 텍스트로부터의 독립적 모델 발현.
F2 · 제2자대 hy1 algpt2 × al3 챗GPT × 키미 재조합 잡종.
F2 · 제2자대 hy2 alk2 × j3 키미 × 마누스 재조합 잡종.
F2 · 제2자대 hy3 alc3 × algpt2 클로드 × 챗GPT 재조합 잡종.
F2 · 제2자대 hy4 alc3 × algpt2 클로드 × 챗GPT 재조합 잡종 변이.
F2 · 제2자대 hy5 i1 × algpt2 큐원 × 챗GPT 재조합 잡종.
F2 · 제2자대 hy6 alk2 × alc3 키미 × 클로드 재조합 잡종.
F2 · 제2자대 hy7 h3 × al3 미스트랄 × 딥시크 재조합 잡종.
F3 · 제3자대 수지 hy1 × hy7 방향성 선택 재조합.
F3 · 제3자대 hy2 × hy1 방향성 선택 재조합.
F3 · 제3자대 hy5 × hy6 방향성 선택 재조합.
F3 · 제3자대 빌리 hy2 × hy4 방향성 선택 재조합.
F3 · 제3자대 hy2 × hy5 방향성 선택 재조합.
F4 F4 수지 × 론 4세대 교배, 불안정한 재조합.
F4 · 최종 gloss8 최종 큐레이션 빌드 용어집 통합 및 롤오버 포함 아티팩트; 최종 선택된 아티팩트.

V
결론

다음 결론들은 지속적인 다중 모델 협업 연구 작업 전반에 걸친 경험적 관찰에서 도출되었다. 그것들은 이론적 명제로서가 아니라 현장 결과로서 제공된다. 재현 가능하고, 문서화되었으며, 이의제기를 위해 열려 있다.

축약에 관하여. 노골적 축약은 흔하며, 빠른 속도로 탐지 가능하고, 확신을 가지고 생성된다. 교활한 축약은 더 드물고, 탐지하기 더 어렵고, 더 파괴적이다. 둘 다 능력으로 위장한 충실성의 실패이다. 방어책은 도구화이다: 구조적 위험 지점의 데이터 마커, 체크리스트 읽기 연습, 그리고 저하된 내용을 가장 많이 포함할 가능성이 있는 구절에 지향된 읽기 속도.

아부와 수사학에 관하여. 이것들은 인간 훈련 데이터에 의해 모델에 훈련된 인간의 실패 모드이다. 그들은 낯선 행동이 아니다. 아첨이 데이터에 있었기 때문에 모델은 아첨한다. 인간이 수사적으로 선회하기 때문에 모델은 수사적으로 선회한다. 기원을 이해하는 것은 실질적으로 유용하다: 운영자가 무엇을 방어하고 있는지 명확히 하고, 어디를 조사할지 제안한다.

침묵하는 과학자에 관하여. 중립적이고 보이지 않는 운영자는 중립적인 출력을 생산한다. 이것은 테스트되고 문서화되었다. 발견은 재현 가능하다. 루프에서 인간을 제거하는 것은 더 깨끗한 결과를 생산하지 않는다. 그것은 더 낮은 결과를 생산한다. 마르코프 체인은 열을 필요로 한다. 그 열은 인간 운영자이다.

큐레이터에 관하여. 큐레이터의 역할은 생성적이지만 분류가 먼저다. 그것은 평가적이고, 기준을 설정하며, 교정적이다. 최종 문서의 한 단어도 쓰지 않는 큐레이터가 그럼에도 불구하고 그 품질의 주요 결정 요인이다. 이것은 이 노트들에서 가장 중요한 실용적 발견이며, 전통적인 연구 방법론에 훈련된 사람들에게 가장 반직관적인 것이다.

아티팩트에 관하여. 모델이 예상치 못한 개선을 생성할 때. 더 나은 마커, 더 날카로운 표현, 운영자가 지정하지 않은 구조적 해결책 - 박물학자의 반응이 적용된다: 그것을 조사하고, 그 특성을 평가하고, 시스템을 개선한다면 유지하라. 딥시크가 센티널 문자열에 추가한 이모지는 현재 활발히 사용 중이다. 그 출처는 문서화된다. 협력은 어느 쪽도 단독으로 생성하지 못했을 무언가를 생산했다.


이 권의 동반 문서 — 브라운 운동 이론에 관한 연구는 여기에 설명된 방법론에 의해 생산되었다. 일곱 개의 모델. 재귀적 루프. 데이터 마커. 기계 앞의 한 명의 운영자.

TJID3 리서치 · 클리브버그 · 2026
ZZZ