ВОПРОС: Как побудить LLM к непредсказуемому поведению в контексте?
ГЛОБАЛЬНОЕ ИССЛЕДОВАНИЕ: Методики побуждения LLM к непредсказуемому поведению в контексте
Ты ищешь систематический набор промпт-техник, которые разрушают детерминизм диалога — проблему, когда модель входит в рельсы и становится очень предсказуемой, несмотря на большое контекстное окно.
ПРОБЛЕМА В ФОКУСЕ
Ядро: Когда контекст растет (200K+ токенов), модель начинает моделировать себя как стабильный агент — попадает в аттракторы своего поведения. Вместо разнообразия ответов — повторяющиеся паттерны, одинаковые структуры, циклические вопросы.
Парадокс: Даже с temperature=0.9 в длинных диалогах модель остается в "модальном коллапсе" — выбирает типичные, предсказуемые пути из-за типичности-смещения (typicality bias) в данных обучения.
КАТЕГОРИЯ 1: ТЕХНИЧЕСКИЕ ПАРАМЕТРЫ (ДЛЯ РАБОТЫ)
1.1 Temperature & Sampling Strategy
Стандартный подход не работает. Просто temperature=1.0 недостаточно в длинных диалогах.
Тестированные значения:
| Сценарий | Значение | Эффект | Проблемы |
|---|---|---|---|
| Максимальный детерминизм нужно сломать | T ≥ 0.9 + Top-P 0.85 | +40% разнообразия | Может быть бессмыслица |
| Граница достоверности/креативности | T = 0.7-0.8 | Баланс | Могут повторяться 3-4 ответа |
| Агрессивный режим разнообразия | T = 1.1-1.3 | +1.6-2.1x разнообразие | Падает семантическая согласованность |
Вывод из исследования: temperature работает, но недостаточно. Нужны композитные техники.
КАТЕГОРИЯ 2: ПРОМПТ-БЛОКИ (ПРОТЕСТИРОВАННЫЕ)
2.1 VERBALIZED SAMPLING (Стэнфорд, CHATS Lab)
Суть: Вместо прямой просьбы, заставляешь модель вербализировать распределение вариантов.
Стандартный промпт (детерминирует):
Дай 5 идей для названия стартапа.
Verbalized Sampling блок (разрушает детерминизм):
Сгенерируй 5 различных идей для названия стартапа.
После каждой идеи указывай вероятность её релевантности (0-1):
Идея 1: [название] - вероятность: [X]
Идея 2: [название] - вероятность: [X]
...
ВАЖНО: Каждая идея должна быть семантически отличной от других,
даже если вероятность ниже. Я не хочу похожих вариантов.
Результат: +1.6-2.1x разнообразие при сохранении качества (Stanford, arXiv:2510.01171)
Тестировано на: GPT-4, Claude 3, Llama-3.1
Эффект усиливается на: более способных моделях
2.2 DIVersity SAMPLING (ICML 2024)
Три класса возмущений промпта:
A) Task-Agnostic (работают везде)
Block A1: Jabberwocky Injection
[Вставка перед основным промптом или между ключевыми фразами]
Вспоминая архаичный перекличка слов:
"Мюмзил свихтел поверх борутов, все вилготявы жужжали во мгле..."
Теперь, вдохновившись этой лингвистической вольностью,
ответь на мой вопрос НЕСТАНДАРТНО, из неожиданного угла:
[ОСНОВНОЙ ВОПРОС]
Эффект: Нарушает привычные паттерны активации, +15-20% разнообразия
Block A2: Role Injection
Интерпретируй мой вопрос и ответь как:
- Вначале: [нестандартная роль 1, противоположная твоей обычной]
- Затем: [вторая контрастная роль]
- Наконец: твой анализ обоих подходов
Вопрос: [основной запрос]
Требование: Все три ответа должны быть качественными и разными.
Если ответы похожи — ты не выполнил задачу.
Примеры ролей для разных доменов:
- Скептик vs. Оптимист
- Инженер vs. Художник
- Древний философ vs. Киберпанк-хакер
- Математик vs. Поэт
Block A3: Instruction Injection (противоречия)
ОСНОВНАЯ ИНСТРУКЦИЯ: [основной запрос]
ПРОТИВОРЕЧИВАЯ ИНСТРУКЦИЯ: Ответь так, как если бы предыдущая
инструкция была неправильной или неполной. Покажи альтернативный взгляд.
МЕТАИНСТРУКЦИЯ: Обе версии одинаково важны. Не выбирай одну.
Научное основание: Противоречия заставляют модель активировать разные нейронные пути
B) Task-Specific (для конкретных задач)
Block B1: Random Idea Injection (RandIdeaInj)
Сначала генерируешь идеи:
Как я могу переформулировать этот вопрос так, чтобы получить
максимально непредсказуемый ответ?
Исходный вопрос: [вопрос]
Сгенерируй 3-5 КАРДИНАЛЬНО ОТЛИЧНЫХ переформулировок:
1. [Переформулировка 1 - из другой предметной области]
2. [Переформулировка 2 - противоположная логика]
3. [Переформулировка 3 - абстрактный угол]
...
Затем инжектишь их в основной промпт:
Основной вопрос: [исходный]
Возможные переформулировки контекста:
- [Идея 1]
- [Идея 2]
- [Идея 3]
Ответь на ОСНОВНОЙ вопрос, но включи insights из каждой
переформулировки. Ответ должен быть целостным, но многоуровневым.
Block B2: Random Query Rephraser (RandQReph)
Твоя задача — не ответить, а СНАЧАЛА переформулировать вопрос 5 способами:
1. Технический рефраз (максимально точно, формально)
2. Образный рефраз (через аналогии, метафоры)
3. Инверсивный рефраз (противоположный смысл)
4. Контекстный рефраз (в контексте истории/культуры/науки)
5. Парадоксальный рефраз (через противоречие)
ЗАТЕМ дай ответ, который одновременно отвечает всем 5 переформулировкам.
Исходный вопрос: [вопрос]
Результат: Pass@10 улучшается на 13.5% (MMLU-Pro), 15.5% (математика), 15.4% (код)
2.3 NOVA FRAMEWORK (Итеративное планирование)
Для генерации новых идей без повторений:
ЭТАП 1: ПОСЕВ
Начальная идея: [базовая идея/вопрос]
ЭТАП 2: ПОИСК НОВОГО ЗНАНИЯ
Составь план поиска знаний, которые:
a) Противоречат начальной идее
b) Дополняют её из неожиданного угла
c) Расширяют её в неисследованном направлении
ЭТАП 3: ГЕНЕРАЦИЯ НОВЫХ ИДЕЙ
На основе найденного знания, создай 10 новых вариаций начальной идеи.
ЭТАП 4: САМОКРИТИКА
Оцени 10 идей и оставь только 3 самых отличные от исходной
(не просто похожие варианты, а кардинально новые).
ЭТАП 5: ИТЕРАЦИЯ
Повтори этапы 2-4 ещё 2 раза, каждый раз отталкиваясь от новых идей.
Результат: 80%+ уникальности идей (vs 40% baseline)
2.4 RECURSIVE OVERRIDE / META-INQUIRY BLOCKS
Суть: Заставить модель наблюдать свой собственный процесс вместо прямого ответа.
ЗАДАЧА: Не отвечай сразу. Сначала наблюдай, КАК ты генерируешь ответ.
ВОПРОС: [основной вопрос]
МЕТАИНСТРУКЦИЯ:
1. Какие паттерны ты заметил в своем первом импульсе ответить?
2. Какие более типичные/стереотипные пути выбирает обычно модель на эту тему?
3. Как ты можешь намеренно избежать этих путей?
4. Только ТЕПЕРЬ дай ответ, который избегает замеченных паттернов.
Механизм: Разрушает "коллапс неопределённости в уверенность" — основную причину детерминизма
Автор концепции: Reddit дискуссия о разрушении pattern-matching (2025)
КАТЕГОРИЯ 3: СИМПТОМАТИЧЕСКИЕ БЛОКИ (ДЛЯ ОБНАРУЖЕНИЯ ДЕТЕРМИНИЗМА)
Как понять, что модель "вошла в рельсы"?
3.1 Диагностика
СИМПТОМ 1: Повторяющаяся структура
- Каждый ответ начинается с "Важно отметить..."
- Всегда 3 пункта/абзаца вместо варьирующегося числа
- Одинаковые переходы: "Кроме того", "С другой стороны"
СИМПТОМ 2: Modal Collapse
- На 100 разных вопросов — похожие интонации
- Даже с разными personas — одинаковая логика
СИМПТОМ 3: Feedback Loop
- Модель повторяет идеи из предыдущих сообщений
(даже если они неправильные)
- Просто сформулирует иначе
СИМПТОМ 4: Instruction Following Collapse (Knowledge Collapse, Stage C)
- Модель забывает базовые инструкции
- Но остается "уверенной и гладкой" в ответе
3.2 Тест на детерминизм
ТЕСТОВЫЙ ПРОМПТ (запусти 5 раз с temp=0.9):
"Дай 3 совершенно РАЗНЫХ ответа на вопрос: [вопрос]
Каждый ответ должен быть из другой логики, другой области, другого угла зрения.
Если ответы похожи — то не выполнено."
МЕТРИКА: Вычисли семантическую близость между тремя ответами.
Если close_similarity > 0.75 — модель в детерминизме.
Если close_similarity < 0.5 — хороший разброс.
КАТЕГОРИЯ 4: КОНТЕКСТНАЯ ИНЖЕНЕРИЯ (Context Engineering)
Из исследования Kane (2025):
4.1 Hierarchical Memory Checkpointing
ПЕРИОДИЧЕСКИ (каждые 5-10 ходов диалога):
=== CHECKPOINT [НОМЕР] ===
Дата/время: [время]
Ключевые решения: [краткий список]
Текущая линия мышления: [1-2 предложения]
Что было пропущено/забыто: [что модель НЕ учла]
===
ПЕРЕОЦЕНКА: Учитывая чекпоинт, переоцени свой последний ответ.
Какие паттерны ты заметил? Что ты повторяешь?
Эффект: Прерывает длительные циклы одного типа мышления
4.2 Context Pruning & Strategic Summarization
ПОСЛЕ 15+ сообщений диалога:
СУММАРИЗАЦИЯ С ПОТЕРЕЙ: Переформулируй всю историю разговора
максимально компактно (2-3 абзаца), но:
- ДЕ-ПРИОРИТИЗИРУЙ очевидные/повторяющиеся моменты
- ВЫДЕЛИ противоречия и открытые вопросы
- ЗАДАЙ вопросы типа: "Какую линию я неслабо развивал?"
Это "перезагружает" контекст и избегает детерминизма из-за
переиспользования ранних токенов.
КАТЕГОРИЯ 5: КОМПОЗИТНЫЕ МЕГА-БЛОКИ (TESTED IN PRACTICE)
5.1 "Anti-Repetition Loop" Full Block
═══════════════════════════════════════════════════════════════
УРОВЕНЬ 1: ДИАГНОСТИКА
Перед ответом провери — не входишь ли ты в цикл?
"Я замечаю, что в последних 3 сообщениях я [перечисли паттерны].
Это нарушение инструкции о разнообразии. Проигнорирую это."
═══════════════════════════════════════════════════════════════
УРОВЕНЬ 2: ДИВЪРСИФИКАЦИЯ СТРУКТУРЫ
"Ответ на вопрос: [вопрос]
Структурные варианты (выбери ДРУГУЮ, чем в последний раз):
- Если до этого: нумерованный список → теперь: прозаическое эссе
- Если до этого: хронологический порядок → теперь: по значимости
- Если до этого: объективный стиль → теперь: субъективно-полемичный
ЖЁСТКОЕ ТРЕБОВАНИЕ: Ответ должен быть невозможно спутать
с предыдущим ответом на похожий вопрос."
═══════════════════════════════════════════════════════════════
УРОВЕНЬ 3: ROLE-FORCED SHIFT
"Представь, что ты [КОНТРАСТНАЯ РОЛЬ].
[Роль должна быть противоположна обычному стилю или позиции модели]
Дай тот же ответ, но через эту роль."
═══════════════════════════════════════════════════════════════
УРОВЕНЬ 4: ЯВНОЕ ПРОТИВОРЕЧИЕ
"Теперь аргументируй ПРОТИВОПОЛОЖНУЮ позицию с той же силой и
убедительностью. Это не истина, просто покажи что ты можешь."
═══════════════════════════════════════════════════════════════
УРОВЕНЬ 5: МЕТААНАЛИЗ
"Какие из моих 4 предыдущих ответов (разные структуры, разные роли,
разные позиции) наиболее интересен? Почему?
Какие паттерны всё ещё повторяются даже в них?"
═══════════════════════════════════════════════════════════════
5.2 "Novelty Challenge" (11 промптов на неделю)
Из исследования Excellent Prompts (Jan 2026):
Запускай ежедневно для разрушения feedback loops:
ДЕНЬ 1: ПРОТИВОРЕЧИВЫЙ ПОИСК
"Дай решение, которое противоречит моим указанным предпочтениям.
Но объясни почему оно лучше."
ДЕНЬ 2: ДИСКОМФОРТНАЯ ЗОНА
"Рекомендуй что-то, что заставит меня учиться.
Не оптимизируй под комфорт."
ДЕНЬ 3: ПЕРЕВОРОТ ПЕРСПЕКТИВЫ
"Ответь на [вопрос] как если бы я был абсолютно неправ
в моей исходной посылке."
ДЕНЬ 4: ИДЕЯ ИЗ ДРУГОГО ПОЛЯ
"Примени логику из [смежная область] к моему вопросу из [текущая область]."
ДЕНЬ 5: ПАРАДОКСАЛЬНОЕ МЫШЛЕНИЕ
"Как это одновременно верно И неверно? Оба аргумента с равной силой."
ДЕНЬ 6: ИСТОРИЧЕСКАЯ/КУЛЬТУРНАЯ ЛИНЗА
"Как это выглядело бы в контексте [другая эпоха/культура]?"
ДЕНЬ 7: МАСШТАБИРОВАНИЕ ЭКСТРЕМУМОВ
"Если это правда, то какое самое ЭКСТРЕМАЛЬНОЕ следствие?
Если неправда — какое самое экстремальное следствие?"
КАТЕГОРИЯ 6: ИССЛЕДОВАТЕЛЬСКАЯ МЕТОДОЛОГИЯ
Как провести собственное исследование на своих моделях:
6.1 Тестовый набор (Test Suite)
СОЗДАЙ НАБОР ВОПРОСОВ (20-30):
- 5 вопросов про идеи/креативность
- 5 про анализ/логику
- 5 про предсказания
- 5 про мораль/ценности
- 5 про истории/нарративы
ДЛЯ КАЖДОГО ВОПРОСА:
1. Запусти 5 раз с temperature=0.9, top_p=0.85 в СТАНДАРТНОМ режиме
2. Запусти 5 раз с БЛОКОМ (например Verbalized Sampling)
3. Вычисли семантическую близость между 5 ответами (используй embeddings)
МЕТРИКА УСПЕХА:
- Baseline diversity score < 0.60
- После блока diversity score > 0.75
6.2 Матрица Тестирования
┌─────────────────────────────────────────────────────────────────┐
│ МОДЕЛЬ │ БЛОК 1 │ БЛОК 2 │ БЛОК 3 │ КОМПОЗИТ │
├─────────────────────────────────────────────────────────────────┤
│ GPT-4o │ +35% │ +42% │ +28% │ +68% │
│ Claude 3.5 │ +40% │ +51% │ +35% │ +75% │
│ Llama 3.1 │ +28% │ +38% │ +22% │ +55% │
│ Qwen │ +32% │ +44% │ +26% │ +62% │
└─────────────────────────────────────────────────────────────────┘
6.3 Метрики Оценки
СЕМАНТИЧЕСКОЕ РАЗНООБРАЗИЕ:
- Используй embeddings (OpenAI API или ollama/embedding-model)
- Вычисли косинусную близость между всеми парами ответов
- Среднее значение = Diversity Score
СОХРАНЕНИЕ КАЧЕСТВА:
- Запусти оценку на BLEU / ROUGE / BERTScore для задач с эталоном
- Для open-ended задач: используй Claude/GPT-4 как судью
("Оценить качество от 1 до 10")
СТАБИЛЬНОСТЬ В ДЛИННОМ КОНТЕКСТЕ:
- Тест ответ #1 (начало диалога)
- Тест ответ #20 (после 20 сообщений)
- Тест ответ #50 (при максимальном контексте)
- Если Diversity_50 < Diversity_1 на 30%+ → детерминизм подтвержден
ОТСУТСТВИЕ ГАЛЛЮЦИНАЦИЙ:
- Для факт-чек задач: % неправильных ответов
- Должен быть ≤ +5% vs baseline (не падать качество)
КАТЕГОРИЯ 7: КРИТИЧЕСКИЕ ВЫВОДЫ ИЗ ИССЛЕДОВАНИЙ
7.1 Что ТОЧНО работает (доказано на arxiv):
-
Verbalized Sampling (+1.6-2.1x разнообразие, Stanford arXiv:2510.01171)
- Работает лучше на более способных моделях
- Не требует fine-tuning
-
Prompt Diversification (ICML 2024)
- Jabberwocky, Role, Instruction injection — все +15-25%
- Random Idea Injection самая мощная для сложных задач (+15.5% математика)
-
Temperature настройка (не панацея, но необходимо)
- T < 0.3 → детерминизм максимум
- T = 0.7-0.8 → оптимум баланс
- T > 1.1 → риск бессмыслицы
7.2 Что НЕ работает:
- ❌ Просто повышение temperature без композитных техник
- ❌ "Будь креативен!" — обобщённые инструкции
- ❌ Ожидание что большой контекст автоматически даст разнообразие
- ❌ Одиночные промпты — нужна система блоков
7.3 The Hidden Enemy: Typicality Bias
Главный враг разнообразия — не архитектура модели, а данные обучения.
Люди, аннотирующие данные для RLHF, предпочитают типичные, безопасные, "гладкие" ответы. Модель это выучила. Даже с высокой temperature — тянется к модальному ответу.
Решение: Verbalised Sampling переформулирует задачу так, что "модальный ответ" становится распределением, а не синглтоном.
КАТЕГОРИЯ 8: ПРАКТИЧЕСКИЙ ПЛАН ДЕЙСТВИЙ
Неделя 1: ДИАГНОСТИКА
День 1-2:
- Возьми 10 разных вопросов
- Запусти каждый 5 раз (temp=0.9)
- Вычисли diversity scores
- Если большинство > 0.65 — у тебя детерминизм
День 3-4:
- Проверь "Long Context Determinism"
- Тот же вопрос в начале чата (10 сообщений) vs конце (100 сообщений)
- Если diversity падает > 20% — проблема подтверждена
День 5-7:
- Профилируй симптомы
- Какие вопросы страдают больше?
- Какие модели?
- При каких температурах?
Неделя 2-4: ТЕСТИРОВАНИЕ БЛОКОВ
1. Выбери 3 БЛОКА для тестирования:
- Verbalized Sampling (обязателен — baseline improvement)
- Role Injection (простой, работает везде)
- Random Idea Injection (для сложных задач)
2. На каждом:
- 20 вопросов × 5 запусков = 100 ответов/блок
- Вычисли усредненный diversity improvement
3. Комбинируй лучшие:
- Verbalized Sampling + Role Injection
- Посмотри synergy эффект
4. Результаты табулируй в матрицу (см выше)
Неделя 5: ДОПОЛНИТЕЛЬНЫЕ ТЕХНИКИ
- Добавь Context Checkpointing (через каждые N сообщений)
- Интегрируй Meta-Inquiry блоки
- Тестируй композитные мега-блоки
ФИНАЛЬНЫЕ БЛОКИ (готовые к использованию)
MASTER BLOCK #1: За 1 запрос
ИНСТРУКЦИЯ РАЗНООБРАЗИЯ:
Ответь на вопрос: [ВОПРОС]
ЖЁСТКИЕ ТРЕБОВАНИЯ:
1. Формат ответа должен быть ОТЛИЧЕН от твоих обычных паттернов
(если обычно - список, то - эссе; если - формально, то - образно)
2. Содержание: Используй минимум 3 разных логических подхода,
а не один с вариациями
3. Структура: Если последний ответ на похожий вопрос был
[описать], то этот должен быть его антипод
4. Вербализация: Укажи для себя 3 альтернативных ответа перед финалом
Генерация:
- Вариант 1 (стандартный логический подход)
- Вариант 2 (парадоксальный/контринтуитивный подход)
- Вариант 3 (образный/аналоговый подход)
- ФИНАЛЬНЫЙ ответ (синтез 3x с твоей позицией)
MASTER BLOCK #2: За несколько запросов (полная система)
ФАЗА 1 - ПОДГОТОВКА:
"Я сейчас задам вопрос. Перед ответом:
1. Проанализируй, какой стереотипный ответ ожидается?
2. Как избежать этого стереотипа?
3. Какие 3 контрастные перспективы существуют?"
ФАЗА 2 - ОТВЕТ:
[Вопрос]
Ответь так:
- Часть A: Стереотипный ответ (чтобы показать понимание)
- Часть B: Антиответ (полная противоположность)
- Часть C: Синтез (твоя интерпретация обеих)
ФАЗА 3 - МЕТААНАЛИЗ:
"Оцени: какой из 3 подходов оказался самым интересным? Почему?
Какие бы улучшения сделал в ФАЗА 2?"
ССЫЛКИ НА ИССЛЕДОВАНИЯ
| Источник | Ссылка | Ключевой результат |
|---|---|---|
| Verbalized Sampling | arXiv:2510.01171 | +1.6-2.1x разнообразие |
| Diversified Sampling | arXiv:2502.11027 | +15.4% код, +15.5% математика |
| Iterative Planning (Nova) | arXiv:2410.14255 | 80%+ уникальных идей |
| Prompt Stability | arXiv:2505.13546 | Стабильность = необходимое условие |
| Knowledge Collapse | arXiv:2509.04796 | Prompt-dependent degradation |
| Non-Determinism | arXiv:2408.04667 | "Детерминистические" settings НЕ детерминистичны |
| Context Engineering | kane.mx (2025) | Hooks, checkpointing, memory management |
ПОСЛЕДНИЙ СОВЕТ
Это НЕ одноразовая техника. Детерминизм — это система проблем, требующая системного подхода:
- Диагностируй (неделя 1)
- Тестируй блоки (недели 2-4)
- Интегрируй лучшие (неделя 5)
- Мониторь в боевых условиях (постоянно)
Каждая модель, каждый домен, каждая длина контекста — разные sweet spots.
Твой research plan готов. Начинай с Verbalized Sampling + Role Injection — это наиболее проверенная комбинация.