511

Раввин, которого не существовало, и как ИИ сделал из него лидера мнений

Популярный религиозный блогер оказался синтетическим персонажем: аудитория увидела лицо и голос, но не увидела человека.

Раввин, которого не существовало, и как ИИ сделал из него лидера мнений
В соцсетях набрал популярность «раввин Гольдберг» с короткими проповедями и мотивационными видео. Расследование показало, что это не реальный человек, а образ, сгенерированный нейросетями — вместе с деталями, которые должны были убеждать в «подлинности».


История началась как типичная вирусная удача: аккуратные ролики, уверенная подача, «мудрые» фразы, стабильный выпуск контента и быстро растущая аудитория. Персонаж представлялся как раввин Менахем Гольдберг и за короткое время собрал заметную базу подписчиков.

Проблема в том, что «раввин» оказался не человеком. Как следует из публикаций, разбор начался с визуальных деталей: на видео встречались интерьеры и элементы оформления, которые выглядят как компиляция «религиозного антуража» без соответствия реальности и традиции. Отдельно отмечалось качество и содержание самих «проповедей»: вместо связной религиозной логики и отсылок к первоисточникам — набор общих мотивационных конструкций, которые легко масштабировать и клонировать.

Этот кейс важен не только как курьёз. Он показывает, насколько быстро синтетический персонаж может занять нишу «авторитета» в чувствительной теме, где доверие обычно строится на личности, биографии и репутации. При хорошем исполнении аудитория получает лицо, голос и уверенность — и только потом, иногда слишком поздно, задаётся вопросом, кто стоит за контентом.

Параллельно история подсвечивает и другую сторону: платформенная инфраструктура сегодня заточена под удержание внимания, а не под проверку происхождения. Алгоритмы одинаково продвигают «живого эксперта» и аккуратно собранный образ, если он даёт реакции. В результате синтетические «лидеры мнений» становятся не экзотикой, а технологической нормой, которую рынок неизбежно будет пробовать снова.

Для аудитории вывод простой и прикладной: верифицировать нужно не только информацию, но и источник. Признаки могут быть бытовыми — слишком гладкая биография, отсутствие подтверждаемых следов офлайн-жизни, повторяющаяся структура роликов, странные детали окружения, отсутствие привязки к конкретной общине, месту и событиям. Для медиа и площадок вывод сложнее: чем убедительнее становится синтетический контент, тем дороже обходится доверие.

ИЗНАНКА

Синтетический «раввин» — это не про религию как таковую, а про технологию доверия. Когда лицо и голос перестают быть доказательством существования человека, ценность смещается к проверяемым признакам: происхождению контента, подтверждаемым связям, документируемой репутации. Следующий этап в борьбе за внимание будет не про яркость роликов, а про то, кто сможет доказать, что он настоящий.

Фото: соцсети.

Читайте, ставьте лайки, следите за обновлениями в наших социальных сетях и присылайте материалы в редакцию.

ИЗНАНКА — другая сторона событий.





Улыбка может стать причиной финансовых потерь: за год зафиксировано 43 случая ...

/ / Интересное Автор: Денис Иванов

А долги достигли триллиона рублей

/ / Интересное Автор: Дмитрий Зорин

Препарат MVA-BN, разработанный компанией Bavarian Nordic, получил официальное ...

/ / Интересное Автор: Дарья Никитская