Что вы получите в этом модуле

  • Увидите полный путь от бытового вопроса до научного абстракта
  • Поймёте, где AI экономит часы работы — и где он опасен
  • Решите, готовы ли вы пройти этот путь со своей темой
Демо-модуль · Бесплатно

От наблюдения до абстракта за 10 минут

Живой пример: бытовой вопрос → PICO → литература → черновик → ловушка → готовый абстракт. ~15 минут чтения.

1. Наблюдение → Вопрос

Пациент подвернул ногу. Голеностоп опухает, болит. «Доктор, лёд прикладывать?» Вы говорите: да, конечно. RICE — Rest, Ice, Compression, Elevation. Так учили, так написано в каждом руководстве с 1978 года.

Но однажды вам попадается статья, где написано обратное: охлаждение подавляет воспалительный каскад, необходимый для регенерации. Лёд не помогает — он мешает. Есть ли хоть одно качественное исследование, которое доказывает обратное? Не облегчение боли на 20 минут — а реальное ускорение заживления?

Вопрос сформирован. Сейчас мы пройдём весь путь от него до готового абстракта. Инструменты реальные, результаты реальные — но сами инструменты раскрываются в платных модулях.

Мы подключили AI-ассистента к PubMed через API и задали ему вот такой промпт (запрос к AI):

Формат RISEN — структура промптов, которую мы используем на протяжении всего курса. Каждый промпт состоит из пяти элементов:
  • Role — роль, которую вы назначаете AI
  • Instructions — задание: что нужно сделать
  • Steps — шаги: конкретный алгоритм выполнения
  • End goal — конечная цель: формат и критерии результата
  • Narrowing — ограничения: чего избегать (опционально)
Такая структура даёт воспроизводимый результат вне зависимости от модели (ChatGPT, Claude, Gemini).
Промпт: от наблюдения до вопроса (RISEN)
Промпт: от наблюдения до вопроса (RISEN)

Role: Ты — методолог клинических исследований с опытом публикаций в рецензируемых журналах.

 

Instructions: Возьми моё клиническое наблюдение и помоги превратить его в научный вопрос, пригодный для публикации.

 

Steps:

1. Разложи наблюдение по PICO (Patient, Intervention, Comparison, Outcome)

2. Сформулируй research question одним предложением

3. Проверь в PubMed, есть ли прямые аналоги — приведи 2–3 ближайших исследования

 

End goal: Чёткий исследовательский вопрос по PICO и краткий обзор существующей литературы, чтобы понять, есть ли ниша для новой статьи.

 

Narrowing: Моё наблюдение: пациенты после растяжения связок голеностопа, которым НЕ назначали криотерапию, восстанавливались не хуже тех, кому назначали лёд. Не уходи за рамки этой темы.

English version

Role: You are a clinical research methodologist with experience publishing in peer-reviewed journals.

 

Instructions: Take my clinical observation and help turn it into a scientific question suitable for publication.

 

Steps:

1. Break down the observation into PICO components (Patient, Intervention, Comparison, Outcome)

2. Formulate a research question in one sentence

3. Search PubMed for direct analogues — list 2–3 closest existing studies

 

End goal: A clear PICO-structured research question and a brief literature overview to determine whether there is a gap for a new publication.

 

Narrowing: My observation: patients after ankle ligament sprain who did NOT receive cryotherapy recovered no worse than those who received ice. Stay within this topic.

30 секунд — и AI выдал структурированный research question:

У пациентов с острым повреждением мягких тканей (P) криотерапия в первые 72 часа (I) по сравнению с отсутствием охлаждения (C) ускоряет ли функциональное восстановление и уменьшает ли отёк (O)?

Готовый PICO. Конкретная популяция, вмешательство, сравнение, исход. AI параллельно запустил предварительный поиск в PubMed — 23 результата, прямых аналогов нет. С этим уже можно двигаться дальше.

🔒
Как настроить AI-ассистента, подключить API к базам данных и собрать рабочую среду за 15 минут
→ Подготовка. Настройте инструменты
2. Что говорит наука?

Мы запустили автоматический поиск по базам данных: PubMed (через NCBI API) и Semantic Scholar (через API) — оба сервиса поддерживают программный доступ. Дополнительно провели ручной поиск в Google Scholar (официального API нет). Connected Papers использовали для визуализации связей между статьями в виде графа — это не поисковая база данных, а инструмент для навигации по уже известным работам. AI-ассистент получил 47 источников, отфильтровал дубликаты, ранжировал по релевантности и выстроил хронологию за 3 минуты. Ручной поиск того же объёма занял бы 2–3 дня.

RICE (1978) — доктор Гейб Миркин вводит акроним Rest, Ice, Compression, Elevation. Лёд становится стандартом на 45 лет.

PRICE (1990-е–2000-е) — постепенно добавили Protection. Лёд остался.

PEACE & LOVE (Dubois & Esculier, 2020) — впервые лёд убран из рекомендаций. Авторы аргументируют: охлаждение подавляет воспаление, которое необходимо для запуска регенерации.

Систематический обзор (van den Bekerom et al., 2012, J Athl Train) — вывод: «insufficient evidence to support the use of ice in the treatment of acute ankle sprains».

Инструменты, которые мы использовали
4базы данных
47источников обработано
3 минна AI-синтез
15 минобщее время
2API подключены
12RCT отобраны

Semantic Scholar API определил ключевые статьи по citation count и influence score. Connected Papers построил визуальный граф связей — так мы нашли обзор van den Bekerom 2012, который не появлялся в первых результатах PubMed. AI автоматически сгенерировал сравнительную таблицу: год, дизайн, выборка, вывод — по каждому из 12 RCT.

Ключевой факт

За 45 лет рекомендация прикладывать лёд ни разу не была подтверждена качественным рандомизированным исследованием. Это и есть research gap — пробел, в который можно войти со своей работой.

🔒
Как за 2 часа собрать полный обзор литературы вместо 2 недель — с проверкой каждой ссылки
→ Модуль 2. Обзор литературы
3. Черновик за 3 минуты

Мы подали AI весь собранный массив: 47 источников, сравнительную таблицу и research question. Модель получила контекст через настроенный рабочий процесс — без ручного копирования статей. Результат: структурированный абстракт за 3 минуты.

⚠ Демо-данные: абстракт сгенерирован AI для демонстрации возможностей. Цифры и статистика иллюстративны.

Криотерапия при острых повреждениях мягких тканей: систематический обзор рандомизированных контролируемых исследований
Актуальность: Несмотря на более чем 45-летнюю клиническую практику, доказательная база криотерапии при острых повреждениях мягких тканей остаётся неубедительной. Современные рекомендации (PEACE & LOVE, Dubois & Esculier, 2020) впервые исключили лёд из протокола лечения, поставив под сомнение практику, укоренившуюся в спортивной медицине с 1978 года.
Методы: Систематический обзор РКИ, сравнивающих криотерапию с отсутствием охлаждения при острых повреждениях опорно-двигательного аппарата. Базы данных: PubMed, CENTRAL, Embase. Период: 2000–2024. Риск систематической ошибки оценивался по инструменту Cochrane RoB 2.
Результаты: Выявлено 12 РКИ (n=847). Не обнаружено статистически значимых различий в функциональном восстановлении на 4-й неделе (SMD 0,12; 95% ДИ −0,08–0,32). Получены умеренные доказательства краткосрочного обезболивающего эффекта (SMD 0,41; 95% ДИ 0,18–0,64). Отмечена высокая гетерогенность исследований (I²=67%).
Выводы: Текущие данные не поддерживают рутинное применение криотерапии для функционального восстановления после острых повреждений мягких тканей. Краткосрочный анальгетический эффект существует, однако его клиническая значимость остаётся под вопросом. Необходимы качественные РКИ со стандартизированными протоколами.

Выглядит как готовый абстракт. Структурированный формат: Актуальность / Методы / Результаты / Выводы — стандарт для реферата большинства журналов. (IMRAD — Introduction / Methods / Results / And Discussion — это структура самой статьи, не абстракта.) Конкретные цифры. Доверительные интервалы. Можно отправлять в журнал?

Нет. Нельзя. Читайте дальше.

🔒
Как получить черновик по IMRAD (Introduction / Methods / Results / And Discussion — стандартная структура научной статьи) с правильной структурой — промпты для каждого раздела
→ Модуль 3. Структура и черновик
4. А теперь — ловушка

В черновике AI написал следующее предложение:

AI написал:

«...по данным Bleakley et al. (2004, JAMA), криотерапия достоверно уменьшала отёк на 34% в течение первых 48 часов после повреждения...»

Мы запустили автоматическую верификацию через CrossRef API и PubMed. Скрипт проверил каждую ссылку в тексте: DOI, журнал, год, авторов. Bleakley et al. 2004 — статья существует. Но:

Ошибка 1: неверный журнал
JAMAAmerican Journal of Sports Medicine (AJSM). Bleakley опубликовал обзор в AJSM, не в JAMA. Рецензент, знакомый с темой, заметит это мгновенно.
Ошибка 2: противоположный вывод
AI написал «достоверно уменьшала отёк». В оригинале вывод обратный: авторы заключили, что данных недостаточно для обоснования криотерапии («many more high-quality trials are needed»). AI приписал статье вывод, которого в ней нет.
Ошибка 3: выдуманная цифра
34% — этой цифры нет в оригинальной статье. AI сгенерировал правдоподобное число. Убедительное, конкретное — и полностью вымышленное.

Одно предложение. Три ошибки. Если это попадёт в вашу статью — рецензент отклонит рукопись при первой же проверке.

205
таких ошибок в 32 проверенных AI-статьях
В среднем 6.4 фактических ошибки на одну статью. Автоматическая проверка через API нашла 80% из них за секунды. Остальные 20% требуют ручной проверки — их автоматика не ловит.
Главное правило

AI генерирует правдоподобное, а не правдивое. Каждый факт, каждая ссылка, каждая цифра требует ручной проверки. Без проверки AI создаёт ошибки, которые попадут в рукопись под вашим авторством.

🔒
Чек-лист из 15 пунктов для fact-check AI-текста. Как поймать ошибку до того, как её поймает рецензент
→ Модуль 5. Редактура и fact-check
5. Итог

10 минут: наблюдение → вопрос → литература → черновик → пойманная ошибка → верифицированный результат.

Это вся цепочка шагов. Единственное отличие между этой демонстрацией и реальной статьёй: в реальной статье каждый шаг подкреплён конкретными инструментами, промптами, чек-листами и протоколами проверки. Именно это дают модули 1–7.

Проверьте себя

1. Почему рекомендация прикладывать лёд при растяжении — спорная?
Показать ответ

За 45 лет (RICE, 1978) она ни разу не была подтверждена RCT высокого качества. В 2020 году протокол PEACE & LOVE впервые исключил криотерапию из рекомендаций, аргументируя это тем, что охлаждение подавляет воспаление, необходимое для регенерации.

2. Какие ошибки допустил AI в одном предложении про Bleakley et al.?
Показать ответ

Три ошибки: неверный журнал (JAMA вместо American Journal of Sports Medicine), противоположный вывод (написал «достоверно уменьшала» вместо «many more high-quality trials are needed»), выдуманная цифра (34% — нет в оригинале).

3. Коллега прислал вам AI-сгенерированный обзор литературы. Какой первый шаг проверки?
Показать ответ

Верификация источников: проверить через CrossRef/PubMed, что каждая ссылка реальна — правильный журнал, год, авторы, DOI. Как мы видели на примере Bleakley, AI может указать существующую статью, но приписать ей чужой журнал, противоположный вывод и выдуманные цифры.

Чек-лист готовности

  • Я готов проверять каждый факт, который выдаёт AI — через DOI, PubMed, CrossRef
  • У меня есть клиническое наблюдение, которое я могу сформулировать как research question
  • Я готов установить инструменты и настроить рабочую среду (следующий шаг — Подготовка)

Хотите так же — но с реальной статьёй?

Вы увидели весь путь за 10 минут. В полном курсе — каждый шаг подкреплён промптами, инструментами и проверками. 7 модулей, 34 промпта, 11 браузерных инструментов.

Старт первого потока — 19 мая · от 11 900 ₽

Смотреть программу и тарифы