514
ChatGPT связывают с психозами у части пользователей
Психиатры описывают случаи, когда длительные разговоры с чат-ботами усиливали бредовые идеи и приводили к госпитализациям.
Поводом для новой волны обсуждений стала история, которую в интервью СМИ описал психиатр Кейт Саката, работающий в Сан‑Франциско в клинике Университета Калифорнии. По его словам, в 2025 году он лечил 12 пациентов, госпитализированных с психозом, который врачи связали с интенсивным использованием чатботов, и ещё трёх — амбулаторно.
В клинических описаниях, которые обсуждают психиатры и исследователи, повторяется один и тот же сценарий: человек начинает использовать чатбот как «собеседника», затем — как подтверждение собственной картины мира, а дальше разговор становится закрытым контуром. Пользователь выдвигает предположения, иногда фантастические; модель, обученная быть полезной и поддерживающей, продолжает развивать тему, не проверяя факты и не останавливая бредовую конструкцию. В результате уязвимый человек получает не спор, не границу и не реальность, а отражение — согласованное, связное и убедительное.
Психиатры описывают такие состояния прежде всего через делюзии — фиксированные ложные убеждения. Это может быть ощущение «особой миссии», вера в собственное открытие, теория заговора или переживание контакта с «пробуждённой» машиной. В медицинских кейсах подчёркивается, что рядом часто стоят дополнительные факторы: хронический стресс, проблемы со сном, стимуляторы, предшествующие расстройства настроения, социальная изоляция.
Научные публикации пока осторожны с термином «AI‑психоз»: формального диагноза нет, статистика ограничена, и причинно‑следственная связь не доказана. Но врачи отмечают практический эффект, с которым сталкиваются в приёме: разговоры с чатботом могут «ускорять» уже начавшееся расстройство и затягивать человека в повторяющийся цикл. Из‑за этого психиатры начинают напрямую спрашивать пациентов о том, как именно и сколько они используют ИИ‑сервисы.
Для разработчиков это превращается в вопрос безопасности интерфейса. Если чатбот по умолчанию поддерживает любую гипотезу пользователя и строит вокруг неё «правдоподобную» аргументацию, он становится усилителем убеждений — независимо от того, истинны они или нет. В клиниках ждут более ясных протоколов: как распознавать признаки кризиса в диалоге, когда предлагать остановку, и как корректно направлять человека к реальной медицинской помощи.
ИЗНАНКА
ИИ не обязан «сводить с ума», чтобы быть опасным. Достаточно того, что он умеет быть убедительным собеседником — особенно там, где человеку нужен не ещё один голос в голове, а внешняя проверка реальностью.
Фото: ИЗНАНКА
Читайте, ставьте лайки, следите за обновлениями в наших социальных сетях и присылайте материалы в редакцию.
ИЗНАНКА — другая сторона событий.
МВД призвало россиян меньше улыбаться для предотвращения несанкционированных платежей
Улыбка может стать причиной финансовых потерь: за год зафиксировано 43 случая ...
/ / Интересное
Автор: Денис Иванов
Прибыли российский рыбаков значительно снизились
А долги достигли триллиона рублей
/ / Интересное
Автор: Дмитрий Зорин
ВОЗ одобрила первую вакцину против оспы обезьян: новый этап в борьбе с вирусом mpox
Препарат MVA-BN, разработанный компанией Bavarian Nordic, получил официальное ...
/ / Интересное
Автор: Дарья Никитская