Помощник для создания эффективных промптов по методологии «3 артефакта». Использовать когда нужно: (1) создать промпт для серьёзной задачи, (2) улучшить существующий промпт, (3) проанализировать почему промпт не работает, (4) подготовить reference/blueprint для повторяющихся задач. ТРИГГЕРЫ: "напиши промпт", "создай prompt", "помоги с промптом", "промпт не работает", "улучши промпт", "prompt engineering"
Методология создания эффективных промптов для серьёзных задач.
Prompting = Thinking, не Typing.
LLM не знает что у тебя в голове — она знает только что ты написал. Расплывчатый ввод = расплывчатый результат.
Быстрые запросы — как поиск в Google. Низкие ставки, простая задача. Сложный промпт НЕ нужен.
Серьёзные задачи — брейншторм, анализ контракта, маркетинговый план, бриф. Требуют методичного подхода.
Этот скилл для второго типа.
Для серьёзной задачи нужны три вещи:
Конкретный пример желаемого результата — контракт, отчёт, письмо, лендинг.
Процесс:
Анализ того, ЧТО делает образец эффективным.
Промпт для создания blueprint:
Проанализируй этот reference чтобы потом воссоздать подобное.
Дай краткий, действенный чертёж:
- Что это?
- Тон
- Ключевые паттерны
Уложись в 100 слов. Это твои инструкции для воссоздания подобного текста без доступа к оригиналу. Всё в codeblock.
Определение успеха для ТВОЕЙ версии:
SUCCESS BRIEF
Тип и объём: [Контракт, отчёт, письмо? Сколько страниц?]
Реакция получателя: [Что должен подумать/почувствовать/сделать после прочтения?]
НЕ должно звучать как: [Чего избегать — generic AI, слишком формально, жаргон?]
Успех это: [Подпишут? Одобрят? Ответят? Примут решение?]
[1. Загрузить reference файл]
Я загрузил образец того, что хочу получить. Вот что делает его эффективным:
###
[2. Вставить blueprint]
###
Вот что нужно для моей версии:
###
[3. Вставить success brief]
###
Теперь создай план выполнения по шагам (максимум 5). Определи структуру и задай один вопрос, чтобы начать первый шаг.
После первого ответа — ОБЩАЙСЯ с AI. Это критически важно.
6 правил эффективного диалога:
Исправляй ошибки сразу — "Это неверно — X на самом деле Y потому что [причина]. Исправь и продолжай."
Каждое сообщение кратко — Без предисловий и любезностей. Только: исправление (если нужно) + следующая инструкция.
Ссылайся на предыдущее точно — "В предыдущем ответе ты сказал [цитата]. Разверни это добавив..."
Используй директивный язык — "Ответь кратко", "Один абзац", "Буллеты без воды", "Переделай до 200 слов".
Агрессивно двигайся к финалу — "Теперь создай финальную версию со всеми исправлениями" или "Собери всё в чистый итоговый ответ".
Перезапускай при раздутии контекста — После 8-10 обменов или при падении качества: скопируй лучшую версию → новый чат → "Вот текущая версия — улучши/доверши..."
При получении запроса на создание промпта:
Уточни задачу: Это быстрый запрос или серьёзная задача?
Для быстрых запросов: Напиши простой, прямой промпт без усложнений.
Для серьёзных задач:
Для улучшения промпта:
Предложи правила диалога если задача многошаговая.
Для глубоких исследовательских вопросов — параллельный запуск в нескольких LLM с кросс-чеком. Одна нейронка может галлюцинировать — три дают верифицированный результат.
Применить методологию 3 артефактов к исследовательскому вопросу:
Результат — базовый текст промпта {ТЕЛО_ПРОМПТА}, который будет одинаковым для всех LLM.
Claude Code генерирует три готовых промпта — по одному для каждой LLM. Каждый промпт = тело + адаптация под сильные стороны + встроенный блок трассируемости.
Формат выдачи — три отдельных codeblock'а с заголовками, чтобы пользователь мог скопировать каждый одним кликом:
Промпт 1 — для ChatGPT Deep Research (скопировать → вставить в ChatGPT)
{ТЕЛО_ПРОМПТА}
Дополнительно: проведи комплексный обзор с множественными источниками.
Приоритет — глубина анализа и полнота покрытия темы.
---
ОБЯЗАТЕЛЬНЫЙ БЛОК (не удалять):
В конце ответа добавь секцию «Метаданные исследования»:
1. **Промпт**: процитируй ПОЛНЫЙ текст этого промпта (всё что выше)
2. **Дата исследования**: [сегодняшняя дата]
3. **Модель**: ChatGPT Deep Research
4. **Источники**: пронумерованный список ВСЕХ использованных источников с URL
Промпт 2 — для Gemini Deep Research (скопировать → вставить в Gemini)
{ТЕЛО_ПРОМПТА}
Дополнительно: сфокусируйся на актуальных данных, статистике и трендах.
Приоритет — свежесть информации и структурированная подача.
---
ОБЯЗАТЕЛЬНЫЙ БЛОК (не удалять):
В конце ответа добавь секцию «Метаданные исследования»:
1. **Промпт**: процитируй ПОЛНЫЙ текст этого промпта (всё что выше)
2. **Дата исследования**: [сегодняшняя дата]
3. **Модель**: Gemini Deep Research
4. **Источники**: пронумерованный список ВСЕХ использованных источников с URL
Промпт 3 — для Perplexity (скопировать → вставить в Perplexity)
{ТЕЛО_ПРОМПТА}
Дополнительно: для каждого утверждения дай прямую ссылку на источник.
Приоритет — верифицируемость фактов и цитирование.
---
ОБЯЗАТЕЛЬНЫЙ БЛОК (не удалять):
В конце ответа добавь секцию «Метаданные исследования»:
1. **Промпт**: процитируй ПОЛНЫЙ текст этого промпта (всё что выше)
2. **Дата исследования**: [сегодняшняя дата]
3. **Модель**: Perplexity
4. **Источники**: пронумерованный список ВСЕХ использованных источников с URL
| LLM | Сильные стороны | Адаптация в промпте |
|---|---|---|
| ChatGPT Deep Research | Глубокий анализ, browses web, длинные отчёты | Комплексный обзор, множественные источники |
| Gemini Deep Research | Свежие данные Google, структурированные отчёты | Актуальные данные, статистика, тренды |
| Perplexity | Быстрый поиск, цитирование с URL | Факты с прямыми ссылками на источники |
Пользователь копирует каждый промпт и вставляет в соответствующую LLM. Запускать одновременно — не ждать ответа одной. Важно получить независимые результаты.
Как запустить Deep Research в каждой LLM:
| LLM | Где открыть | Как запустить |
|---|---|---|
| ChatGPT | chatgpt.com → новый чат | Выбрать модель o3 или o4-mini → нажать иконку Deep Research (лупа) → вставить промпт → Enter |
| Gemini | gemini.google.com → новый чат | Выбрать Gemini 2.5 Pro → нажать Deep Research → вставить промпт → Enter |
| Perplexity | perplexity.ai → новый поиск | Переключить на Deep Research (переключатель сверху) → вставить промпт → Enter |
Время ожидания: Deep Research занимает 3-15 минут в каждой LLM (зависит от сложности вопроса). Можно запустить все три и заняться другими делами.
Инструкция пользователю:
Выше три промпта. Скопируй каждый и вставь в соответствующую нейронку:
- Первый codeblock → ChatGPT (режим Deep Research)
- Второй codeblock → Gemini (режим Deep Research)
- Третий codeblock → Perplexity
Когда все три ответа будут готовы — вернись ко мне с результатами (инструкция ниже).
Когда все LLM дали ответы, пользователь возвращает результаты в Claude Code. Три способа (от лучшего к простому):
Способ 1 — Файлами (рекомендуемый для длинных отчётов)
Сохрани каждый ответ в отдельный файл:
chatgpt_research.mdgemini_research.mdperplexity_research.mdПоложи файлы в папку проекта и скажи мне: «Результаты исследований в файлах chatgpt_research.md, gemini_research.md, perplexity_research.md — сделай кросс-чек и мерж»
Способ 2 — Вставкой в чат (для коротких отчётов)
Вставь каждый ответ в чат с разделителями:
=== CHATGPT DEEP RESEARCH === [вставить полный ответ ChatGPT] === GEMINI DEEP RESEARCH === [вставить полный ответ Gemini] === PERPLEXITY === [вставить полный ответ Perplexity]И скажи: «Сделай кросс-чек и мерж»
Способ 3 — По одному (если отчёты очень длинные)
Вставляй ответы по одному:
- «Вот результат ChatGPT Deep Research:» + вставить
- «Вот результат Gemini Deep Research:» + вставить
- «Вот результат Perplexity:» + вставить
- «Все три готовы — сделай кросс-чек и мерж»
Когда все три отчёта получены — Claude Code выполняет мерж:
5a. Проверка трассируемости
Убедиться, что каждый отчёт содержит блок «Метаданные исследования»:
Если блок отсутствует — спросить пользователя дату и модель, зафиксировать вручную.
5b. Кросс-чек и мерж
У меня три независимых исследования одного вопроса от разных LLM.
Задача:
1. **Кросс-чек фактов**: найди утверждения, которые подтверждаются
минимум двумя источниками. Пометь как ✅ Verified.
2. **Выяви расхождения**: найди противоречия между отчётами.
Для каждого противоречия укажи:
- Что говорит каждая LLM
- Какая версия вероятнее и почему
- Пометь как ⚠️ Conflict
3. **Флаг галлюцинаций**: найди утверждения, которые есть только
в одном отчёте и не подтверждены источниками.
Пометь как ❌ Unverified.
4. **Мерж**: создай единый отчёт, включающий только
верифицированные факты + разрешённые конфликты.
В конце — секция «Требует дополнительной проверки»
для unverified утверждений.
5. **Метаданные мержа**: в конце отчёта указать:
- Дата мержа
- Источники: какие LLM использовались, даты их исследований
- Промпт: текст базового промпта (из блока трассируемости)
После кросс-чека Claude Code формирует единый верифицированный отчёт и сохраняет его:
Формат финального отчёта:
# [Тема исследования]
**Дата мержа**: [дата]
**Источники**: ChatGPT Deep Research ([дата]), Gemini Deep Research ([дата]), Perplexity ([дата])
**Базовый промпт**: [текст из блока трассируемости]
---
## Верифицированные выводы
[Основной контент — только факты, подтверждённые минимум 2 из 3 LLM]
## Разрешённые конфликты
| Вопрос | ChatGPT | Gemini | Perplexity | Вывод |
|--------|---------|--------|------------|-------|
| ... | ... | ... | ... | ... |
## Требует дополнительной проверки
[Утверждения из одного источника, не подтверждённые другими]
## Все источники
[Объединённый пронумерованный список URL из всех трёх отчётов]
Сохранение: Claude Code сохраняет отчёт как {тема}_deep_research_{дата}.md в папку проекта.
Выдача пользователю: показать краткое резюме (3-5 ключевых выводов) + путь к файлу. Если нужен PDF — предложить сгенерировать через скилл quick-pdf.