Что вы получите в этом модуле
- Увидите полный путь от бытового вопроса до научного абстракта
- Поймёте, где AI экономит часы работы — и где он опасен
- Решите, готовы ли вы пройти этот путь со своей темой
От наблюдения до абстракта за 10 минут
Живой пример: бытовой вопрос → PICO → литература → черновик → ловушка → готовый абстракт. ~15 минут чтения.
Пациент подвернул ногу. Голеностоп опухает, болит. «Доктор, лёд прикладывать?» Вы говорите: да, конечно. RICE — Rest, Ice, Compression, Elevation. Так учили, так написано в каждом руководстве с 1978 года.
Но однажды вам попадается статья, где написано обратное: охлаждение подавляет воспалительный каскад, необходимый для регенерации. Лёд не помогает — он мешает. Есть ли хоть одно качественное исследование, которое доказывает обратное? Не облегчение боли на 20 минут — а реальное ускорение заживления?
Вопрос сформирован. Сейчас мы пройдём весь путь от него до готового абстракта. Инструменты реальные, результаты реальные — но сами инструменты раскрываются в платных модулях.
Мы подключили AI-ассистента к PubMed через API и задали ему вот такой промпт (запрос к AI):
- Role — роль, которую вы назначаете AI
- Instructions — задание: что нужно сделать
- Steps — шаги: конкретный алгоритм выполнения
- End goal — конечная цель: формат и критерии результата
- Narrowing — ограничения: чего избегать (опционально)
Промпт: от наблюдения до вопроса (RISEN)
Role: Ты — методолог клинических исследований с опытом публикаций в рецензируемых журналах.
Instructions: Возьми моё клиническое наблюдение и помоги превратить его в научный вопрос, пригодный для публикации.
Steps:
1. Разложи наблюдение по PICO (Patient, Intervention, Comparison, Outcome)
2. Сформулируй research question одним предложением
3. Проверь в PubMed, есть ли прямые аналоги — приведи 2–3 ближайших исследования
End goal: Чёткий исследовательский вопрос по PICO и краткий обзор существующей литературы, чтобы понять, есть ли ниша для новой статьи.
Narrowing: Моё наблюдение: пациенты после растяжения связок голеностопа, которым НЕ назначали криотерапию, восстанавливались не хуже тех, кому назначали лёд. Не уходи за рамки этой темы.
English version
Role: You are a clinical research methodologist with experience publishing in peer-reviewed journals.
Instructions: Take my clinical observation and help turn it into a scientific question suitable for publication.
Steps:
1. Break down the observation into PICO components (Patient, Intervention, Comparison, Outcome)
2. Formulate a research question in one sentence
3. Search PubMed for direct analogues — list 2–3 closest existing studies
End goal: A clear PICO-structured research question and a brief literature overview to determine whether there is a gap for a new publication.
Narrowing: My observation: patients after ankle ligament sprain who did NOT receive cryotherapy recovered no worse than those who received ice. Stay within this topic.
30 секунд — и AI выдал структурированный research question:
У пациентов с острым повреждением мягких тканей (P) криотерапия в первые 72 часа (I) по сравнению с отсутствием охлаждения (C) ускоряет ли функциональное восстановление и уменьшает ли отёк (O)?
Готовый PICO. Конкретная популяция, вмешательство, сравнение, исход. AI параллельно запустил предварительный поиск в PubMed — 23 результата, прямых аналогов нет. С этим уже можно двигаться дальше.
Мы запустили автоматический поиск по базам данных: PubMed (через NCBI API) и Semantic Scholar (через API) — оба сервиса поддерживают программный доступ. Дополнительно провели ручной поиск в Google Scholar (официального API нет). Connected Papers использовали для визуализации связей между статьями в виде графа — это не поисковая база данных, а инструмент для навигации по уже известным работам. AI-ассистент получил 47 источников, отфильтровал дубликаты, ранжировал по релевантности и выстроил хронологию за 3 минуты. Ручной поиск того же объёма занял бы 2–3 дня.
RICE (1978) — доктор Гейб Миркин вводит акроним Rest, Ice, Compression, Elevation. Лёд становится стандартом на 45 лет.
PRICE (1990-е–2000-е) — постепенно добавили Protection. Лёд остался.
PEACE & LOVE (Dubois & Esculier, 2020) — впервые лёд убран из рекомендаций. Авторы аргументируют: охлаждение подавляет воспаление, которое необходимо для запуска регенерации.
Систематический обзор (van den Bekerom et al., 2012, J Athl Train) — вывод: «insufficient evidence to support the use of ice in the treatment of acute ankle sprains».
Semantic Scholar API определил ключевые статьи по citation count и influence score. Connected Papers построил визуальный граф связей — так мы нашли обзор van den Bekerom 2012, который не появлялся в первых результатах PubMed. AI автоматически сгенерировал сравнительную таблицу: год, дизайн, выборка, вывод — по каждому из 12 RCT.
За 45 лет рекомендация прикладывать лёд ни разу не была подтверждена качественным рандомизированным исследованием. Это и есть research gap — пробел, в который можно войти со своей работой.
Мы подали AI весь собранный массив: 47 источников, сравнительную таблицу и research question. Модель получила контекст через настроенный рабочий процесс — без ручного копирования статей. Результат: структурированный абстракт за 3 минуты.
⚠ Демо-данные: абстракт сгенерирован AI для демонстрации возможностей. Цифры и статистика иллюстративны.
Выглядит как готовый абстракт. Структурированный формат: Актуальность / Методы / Результаты / Выводы — стандарт для реферата большинства журналов. (IMRAD — Introduction / Methods / Results / And Discussion — это структура самой статьи, не абстракта.) Конкретные цифры. Доверительные интервалы. Можно отправлять в журнал?
Нет. Нельзя. Читайте дальше.
В черновике AI написал следующее предложение:
«...по данным Bleakley et al. (2004, JAMA), криотерапия достоверно уменьшала отёк на 34% в течение первых 48 часов после повреждения...»
Мы запустили автоматическую верификацию через CrossRef API и PubMed. Скрипт проверил каждую ссылку в тексте: DOI, журнал, год, авторов. Bleakley et al. 2004 — статья существует. Но:
Одно предложение. Три ошибки. Если это попадёт в вашу статью — рецензент отклонит рукопись при первой же проверке.
AI генерирует правдоподобное, а не правдивое. Каждый факт, каждая ссылка, каждая цифра требует ручной проверки. Без проверки AI создаёт ошибки, которые попадут в рукопись под вашим авторством.
10 минут: наблюдение → вопрос → литература → черновик → пойманная ошибка → верифицированный результат.
Это вся цепочка шагов. Единственное отличие между этой демонстрацией и реальной статьёй: в реальной статье каждый шаг подкреплён конкретными инструментами, промптами, чек-листами и протоколами проверки. Именно это дают модули 1–7.
Проверьте себя
Показать ответ
За 45 лет (RICE, 1978) она ни разу не была подтверждена RCT высокого качества. В 2020 году протокол PEACE & LOVE впервые исключил криотерапию из рекомендаций, аргументируя это тем, что охлаждение подавляет воспаление, необходимое для регенерации.
Показать ответ
Три ошибки: неверный журнал (JAMA вместо American Journal of Sports Medicine), противоположный вывод (написал «достоверно уменьшала» вместо «many more high-quality trials are needed»), выдуманная цифра (34% — нет в оригинале).
Показать ответ
Верификация источников: проверить через CrossRef/PubMed, что каждая ссылка реальна — правильный журнал, год, авторы, DOI. Как мы видели на примере Bleakley, AI может указать существующую статью, но приписать ей чужой журнал, противоположный вывод и выдуманные цифры.
Чек-лист готовности
- Я готов проверять каждый факт, который выдаёт AI — через DOI, PubMed, CrossRef
- У меня есть клиническое наблюдение, которое я могу сформулировать как research question
- Я готов установить инструменты и настроить рабочую среду (следующий шаг — Подготовка)
Хотите так же — но с реальной статьёй?
Вы увидели весь путь за 10 минут. В полном курсе — каждый шаг подкреплён промптами, инструментами и проверками. 7 модулей, 34 промпта, 11 браузерных инструментов.
Старт первого потока — 19 мая · от 11 900 ₽
Смотреть программу и тарифы