812
ChatGPT «советует» политику: в Непале школьники попросили ИИ помочь с выбором лидера
От «списка кандидатов» к спору об ответственности алгоритмов: почему кейс с рекомендацией Сушилы Карки стал заметным
Сюжет начался как типичный эксперимент «гражданского технодозвона»: подростки сформулировали запрос в духе «кто из публичных фигур мог бы стать объединяющим лидером?» и попросили машину перечислить аргументы «за» и «против». В ответ, по их рассказу, ChatGPT предложил несколько имён и вывел на первое место Сушилу Карки — юристку, в 2016–2017 годах занимавшую пост главы Верховного суда Непала и известную жёсткой антикоррупционной позицией. Инициаторы подчеркнули, что воспринимают результат как «интеллектуальную консультацию», а не как призыв к действию.
Внутри страны реакция разделилась. Часть комментаторов увидела в эпизоде пример «трезвого» пользования инструментом — когда машина не голосует, а помогает структурировать аргументы. Другие напомнили о рисках: языковые модели склонны к галлюцинациям, их ответы зависят от формулировки вопроса и обучающих данных, а значит, «выбор ИИ» может отражать не факты, а статистические предпочтения корпуса текстов. Ситуацию подогрела фигура самой Карки: она символизирует независимую судебную ветвь, но одновременно остаётся политически чувствительной персоной для части элиты.
Эта история показательна тем, что меняется сама логика политической социализации молодёжи. Алгоритм используется не только как справочник, но и как «собеседник», который структурирует выбор — от вузов и профессий до публичных ролей. В такой роли он усиливает информационную воронку: чем талантливее подводка, тем убедительнее звучит ответ, даже если исходные предпосылки спорны. На этом фоне возрастает значение «мета-грамотности»: умения задавать качественные вопросы, проверять источники и отделять описание от рекомендации.
С практической точки зрения кейс с Непалом поднимает три узких места. Первое — прозрачность: пользователи редко сохраняют промпты и версии ответов, а без этого невозможно понять, что именно сгенерировало результат. Второе — подотчётность: ни у одной стороны нет юридической ответственности за «совет ИИ», и это создаёт риск манипуляций под видом нейтральной экспертизы. Третье — локальный контекст: модели обучены на глобальном корпусе и нередко обобщают, игнорируя специфику региональной политики и языка.
ИЗНАНКА
Алгоритмы не «выбирают лидеров» — они зеркалят массив текстов и наши ожидания. Полезность начинается там, где подростки используют ИИ как инструмент для списка вопросов и проверки фактов, а не как «оракул». Чем прозрачнее процедура и понятнее источники, тем меньше искушение переложить политическую ответственность на машину.
Фото: соцсети.
Читайте, ставьте лайки, следите за обновлениями в наших социальных сетях и присылайте свои материалы в редакцию.
ИЗНАНКА — другая сторона событий.
МВД призвало россиян меньше улыбаться для предотвращения несанкционированных платежей
Улыбка может стать причиной финансовых потерь: за год зафиксировано 43 случая ...
/ / Интересное
Автор: Денис Иванов
Прибыли российский рыбаков значительно снизились
А долги достигли триллиона рублей
/ / Интересное
Автор: Дмитрий Зорин
ВОЗ одобрила первую вакцину против оспы обезьян: новый этап в борьбе с вирусом mpox
Препарат MVA-BN, разработанный компанией Bavarian Nordic, получил официальное ...
/ / Интересное
Автор: Дарья Никитская