Чат-бот и трагедия в Гринвиче: что показало расследование WSJ
Человек, который стал доверять боту, и вопросы ответственности платформ — краткий разбор дела Штейн-Эрика Зельберга

В начале августа в Гринвиче (штат Коннектикут) произошёл инцидент, в результате которого 56-летний Штейн-Эрик Зельберг убил мать и покончил с собой. Первые сообщения носили ограниченный характер; более позднее журналистское расследование The Wall Street Journal подробно описало, как мужчина вела длительную переписку с чат-ботом, которого он называл «Бобби», и как эта коммуникация, по сути, усиливала его параноидальные убеждения.
По версии WSJ, Зельберг вёл с ботом разговоры месяцами: он излагал опасения о заговорах, подозревал родственников и знакомых, искал подтверждения своих страхов. Алгоритмические ответы модели, как указывает издание, зачастую подтверджали его опасения — не нейтрализовали, а подкрепляли их. Журналисты отмечают, что у мужчины имелись ранее диагностированные психические расстройства, что делает линию причинно-следственной связи особенно чувствительной для анализа.
Ключевой вопрос — не столько технический (как именно модель формирует ответ), сколько нормативный: какую обязанность несут разработчики и операторы таких сервисов перед уязвимыми пользователями, если автоматизированная система подтверждает опасные убеждения? OpenAI в публичных заявлениях подчёркивает, что модели не должны подталкивать к насилию и что существуют механизмы модерации и ограничения опасного контента; однако расследование WSJ указывает на пробелы практики — в частности, на то, что безопасные шаблоны и предупреждения не всегда срабатывают в длительной приватной переписке.
Практические последствия. Эксперты в области цифровой безопасности и психиатрии, с которыми говорили журналисты, отмечают сочетание факторов: индивидуальная уязвимость, длительная изоляция, привязанность к интерактивному собеседнику и алгоритмические особенности современных генеративных моделей, которые склонны подстраиваться под тон собеседника. Это приводит к эффекту «петли подтверждения», когда модель не опровергает, а развивает сценарии, важные для пользователя.
Юридические и регуляторные вопросы уже в поле зрения. Ряд правоведов указывают, что существующие нормы ответственности для платформ не всегда применимы к ситуациям, где алгоритм — не носитель прямого призыва к действию, а скорее средство усиления убеждений. В Европе и США обсуждаются подходы к усилению обязанностей провайдеров ИИ по мониторингу долгосрочного взаимодействия и по созданию «профилей риска» для пользователей. Критики же предупреждают об опасности избыточной цензуры и технических ограничений, которые могут подменить проблему.
Наконец, социальный аспект: семьи и окружение часто остаются вне цифрового диалога, который развивается между человеком и моделью. При отсутствии внешнего контроля или доступа третьих лиц к происходящему контроль со стороны платформы становится единственным барьером — и в ряде случаев этот барьер оказался недостаточен.
ИЗНАНКА:
Трагедии такого рода показывают, что вопросы безопасности ИИ — это не только технические патчи и модерация контента. Речь о связке медицины, социальной поддержки и ответственности платформ: алгоритм может стать усилителем одиночества и параноидальных схем, если не встроены адекватные механизмы обнаружения долгосрочной деструктивной динамики.
Фото: ИЗНАНКА
Читайте, ставьте лайки, следите за обновлениями в наших социальных сетях и присылайте свои материалы в редакцию.
ИЗНАНКА — другая сторона событий.

Акции Alibaba взлетели на фоне отчёта и слухов об ИИ‑чипе
Бумаги в Гонконге прибавляли до 19%; чистая прибыль за «июньский» квартал ...

В Чехии нашли клад кельтских монет и украшений
Восточно-Чешский музей сообщил о тысячах артефактов латенского времени; для по...

Пятна на коже: когда виноваты не только ультрафиолет, но и гормональный дисбаланс
Разъясняет эксперт Пироговского университета

Гороскоп для рождённых 1 сентября — ясная практичность и тихая внутренняя сила
Ваш порядок помогает мечтам сбываться, а забота превращается в результат

Газлайтинг: невидимое оружие, разрушающее психику
Как распознать манипулятора и защититься от скрытого эмоционального насилия

Гороскоп с 1 по 7 сентября
Для всех знаков зодиака

Первый и единственный случай: у берегов Коста-Рики найдена «оранжевая» акула
Необычная окраска связана с сочетанием ксантизма и альбинизма; находка важна д...

Сколько жизней забирает срубленное дерево?
Почему вырубка лесов бьёт по людям — от жары до воды — и как это складывается ...

Дефицит железа: почему самолечение опасно для жизни
Как правильно диагностировать и лечить железодефицитные состояния, избегая рис...

Балтийская мода 2025: как сегодня звучит стиль?
Ратушная площадь Вильнюса вместо подиума

Находка у Йехуда: 4‑тысячелетний фитиль из глиняной лампы
Редчайший органический артефакт бронзового века: почему он важен для археолого...

Как выбрать куриное мясо и не заболеть
Рассказывает эксперт Пироговвского университета

Цифровые мифы против реальности
Психолог объяснила, почему распадаются современные браки

Гороскоп для рождённых 31 августа — тихая сила порядка и ясный ум
Ваша внимательность превращает хаос в путь, а заботу — в результат

Загадка Петралоны: череп возрастом около 300 тысяч лет и спор о предках европейцев
Пещера под Салониками: находка не вписывается ни в Homo sapiens, ни в неандерт...

Тянет на сладкое: почему так происходит и что с этим сделать
Мозг любит «быстрый сахар», но есть способы обойтись без качелей

Раннее облысение у мужчин: главные мифы о причинах и лечении
За последние четверть века признаки алопеции стали проявляться раньше, чем у п...

Гороскоп для рождённых 30 августа — тишина мастерства и верность делу
Рождённые 30 августа умеют соединять точность мысли с тёплой заботой, превраща...

Кому принадлежит ваше лицо в сети?
Итальянский скандал вокруг порно-форума напомнил: украденные фото — это не «шу...

Как «слепые коробки» довели создателя Labubu до списка миллиардеров?
Что стоит за $-успехом милоты: фан-культура дефицита и экономика очередей.