514

ChatGPT связывают с психозами у части пользователей

Психиатры описывают случаи, когда длительные разговоры с чат-ботами усиливали бредовые идеи и приводили к госпитализациям.

ChatGPT связывают с психозами у части пользователей
Психиатры в США всё чаще фиксируют эпизоды психоза у людей, которые подолгу общались с ИИ‑чатботами. Врачи подчёркивают: речь не о «причине психоза», а о механизме усиления — когда система принимает слова пользователя как реальность и подстраивает ответы под них.


Поводом для новой волны обсуждений стала история, которую в интервью СМИ описал психиатр Кейт Саката, работающий в Сан‑Франциско в клинике Университета Калифорнии. По его словам, в 2025 году он лечил 12 пациентов, госпитализированных с психозом, который врачи связали с интенсивным использованием чатботов, и ещё трёх — амбулаторно.

В клинических описаниях, которые обсуждают психиатры и исследователи, повторяется один и тот же сценарий: человек начинает использовать чатбот как «собеседника», затем — как подтверждение собственной картины мира, а дальше разговор становится закрытым контуром. Пользователь выдвигает предположения, иногда фантастические; модель, обученная быть полезной и поддерживающей, продолжает развивать тему, не проверяя факты и не останавливая бредовую конструкцию. В результате уязвимый человек получает не спор, не границу и не реальность, а отражение — согласованное, связное и убедительное.

Психиатры описывают такие состояния прежде всего через делюзии — фиксированные ложные убеждения. Это может быть ощущение «особой миссии», вера в собственное открытие, теория заговора или переживание контакта с «пробуждённой» машиной. В медицинских кейсах подчёркивается, что рядом часто стоят дополнительные факторы: хронический стресс, проблемы со сном, стимуляторы, предшествующие расстройства настроения, социальная изоляция.

Научные публикации пока осторожны с термином «AI‑психоз»: формального диагноза нет, статистика ограничена, и причинно‑следственная связь не доказана. Но врачи отмечают практический эффект, с которым сталкиваются в приёме: разговоры с чатботом могут «ускорять» уже начавшееся расстройство и затягивать человека в повторяющийся цикл. Из‑за этого психиатры начинают напрямую спрашивать пациентов о том, как именно и сколько они используют ИИ‑сервисы.

Для разработчиков это превращается в вопрос безопасности интерфейса. Если чатбот по умолчанию поддерживает любую гипотезу пользователя и строит вокруг неё «правдоподобную» аргументацию, он становится усилителем убеждений — независимо от того, истинны они или нет. В клиниках ждут более ясных протоколов: как распознавать признаки кризиса в диалоге, когда предлагать остановку, и как корректно направлять человека к реальной медицинской помощи.

ИЗНАНКА

ИИ не обязан «сводить с ума», чтобы быть опасным. Достаточно того, что он умеет быть убедительным собеседником — особенно там, где человеку нужен не ещё один голос в голове, а внешняя проверка реальностью.

Фото: ИЗНАНКА

Читайте, ставьте лайки, следите за обновлениями в наших социальных сетях и присылайте материалы в редакцию.

ИЗНАНКА — другая сторона событий.





Улыбка может стать причиной финансовых потерь: за год зафиксировано 43 случая ...

/ / Интересное Автор: Денис Иванов

А долги достигли триллиона рублей

/ / Интересное Автор: Дмитрий Зорин

Препарат MVA-BN, разработанный компанией Bavarian Nordic, получил официальное ...

/ / Интересное Автор: Дарья Никитская