528

ИИ ставит диагнозы хуже, чем от него ожидают

Популярный тезис о «революции в медицине» трещит там, где начинается обычный человеческий вопрос — что со мной происходит на самом деле.

ИИ ставит диагнозы хуже, чем от него ожидают
Искусственный интеллект активно используют в медицине, но его возможности в первичной диагностике оказываются куда скромнее, чем принято считать. Последние исследования показывают: в ряде сценариев системы ошибаются в большинстве случаев, особенно там, где нет чётких исходных данных.


Тезис о том, что «ИИ не справляется с первичной диагностикой более чем в 80% случаев», требует аккуратного разбора. В таком виде он звучит как универсальный приговор технологии, но в реальности речь идёт о конкретных исследованиях, условиях тестирования и типе задач.

В 2024–2025 годах сразу несколько работ проверяли, как языковые модели и специализированные медицинские алгоритмы справляются с клиническими кейсами. Один из показательных экспериментов проводился на основе стандартных сценариев первичного обращения пациента: описания симптомов без анализов, без визуализации и без уточняющих вопросов врача. Именно в таких условиях ошибки действительно могут превышать 70–80% в части точного диагноза.

Причина здесь не в «глупости» алгоритма, а в самой постановке задачи. Первичная диагностика — это не угадывание болезни по списку симптомов. Это процесс, в котором врач задаёт десятки уточняющих вопросов, исключает вероятности, учитывает контекст пациента, историю болезней, возраст, образ жизни и множество других факторов. Когда ИИ дают только короткое описание вроде «болит голова, слабость, температура», он оказывается в той же ловушке, что и человек, читающий медицинскую энциклопедию: список возможных диагнозов резко расширяется.

И здесь возникает тот самый эффект, знакомый по книге Джерома К. Джерома: человек находит у себя сразу всё. Разница в том, что ИИ не «чувствует», что из этого вероятнее, а что почти невозможно без дополнительных данных. Он оперирует вероятностями, но эти вероятности зависят от полноты входной информации.

Отдельная проблема — склонность моделей к «избыточной тревожности». В ряде исследований отмечалось, что алгоритмы чаще предлагают более серьёзные и редкие диагнозы, чем это сделал бы врач на первичном этапе. Это связано с тем, что модель обучена на огромном массиве медицинских текстов, где редкие и тяжёлые случаи описаны подробно и ярко. В результате они начинают «выпирать» в ответах.

Параллельно с этим развивается и обратная проблема — избыточное упрощение. В некоторых сценариях ИИ, наоборот, сводит сложное состояние к банальному объяснению, игнорируя потенциальные риски. То есть ошибка возможна в обе стороны: как в сторону гипердиагностики, так и в сторону недооценки.

Именно поэтому крупные разработчики уже начали ограничивать использование своих моделей в медицинских сценариях. Современные версии ИИ прямо предупреждают пользователя, что не могут ставить диагноз и рекомендуют обращаться к врачу. Это не формальность, а реакция на реальные ограничения технологии.

Важно понимать: ИИ показывает хорошие результаты в узких задачах — например, при анализе снимков, распознавании патологий на КТ или МРТ, обработке лабораторных данных. Там, где есть структурированная информация, алгоритмы могут даже превосходить человека по скорости и иногда по точности.

Но первичная диагностика — это зона неопределённости. Это разговор, уточнение, сомнение и постепенное сужение круга вариантов. В этой зоне ИИ пока не заменяет врача, а скорее создаёт иллюзию ответа там, где ответа ещё нет.

Отсюда и растущий социальный эффект. Люди всё чаще обращаются к ИИ как к первому источнику «медицинского мнения» и получают либо тревожный, либо успокаивающий, но в обоих случаях неполный ответ. Это усиливает либо тревожность, либо ложное чувство безопасности.

Парадокс в том, что технология, созданная для помощи, в этом сценарии начинает работать как усилитель неопределённости. Она не решает проблему, а делает её более заметной.

ИЗНАНКА

История с ИИ и диагностикой — это не про слабость технологии, а про неправильное ожидание от неё. Люди ищут быстрый ответ там, где его по определению нет. И пока этот разрыв сохраняется, любая система — даже самая продвинутая — будет ошибаться не потому, что она плохая, а потому что вопрос задан слишком рано.

Фото: соцсети/ИЗНАНКА.

ИЗНАНКА — другая сторона событий

Следите за новостями в наших соцсетях



Улыбка может стать причиной финансовых потерь: за год зафиксировано 43 случая ...

/ / Интересное Автор: Денис Иванов

А долги достигли триллиона рублей

/ / Интересное Автор: Дмитрий Зорин

Препарат MVA-BN, разработанный компанией Bavarian Nordic, получил официальное ...

/ / Интересное Автор: Дарья Никитская