812

ChatGPT «советует» политику: в Непале школьники попросили ИИ помочь с выбором лидера

От «списка кандидатов» к спору об ответственности алгоритмов: почему кейс с рекомендацией Сушилы Карки стал заметным

ChatGPT «советует» политику: в Непале школьники попросили ИИ помочь с выбором лидера
Группа школьников в Непале обратилась к ChatGPT, чтобы получить «взвешенную» рекомендацию о возможном общественном лидере. По их словам, бот составил шорт-лист из четырёх фигур, разобрал сильные и слабые стороны и предложил в качестве предпочтительного варианта Сушилу Карки — бывшего главного судью Верховного суда Непала. История быстро разошлась по местным медиа и соцсетям, спровоцировав спор: допустимо ли перекладывать политические ожидания на алгоритм, который не несёт ответственности за последствия.


Сюжет начался как типичный эксперимент «гражданского технодозвона»: подростки сформулировали запрос в духе «кто из публичных фигур мог бы стать объединяющим лидером?» и попросили машину перечислить аргументы «за» и «против». В ответ, по их рассказу, ChatGPT предложил несколько имён и вывел на первое место Сушилу Карки — юристку, в 2016–2017 годах занимавшую пост главы Верховного суда Непала и известную жёсткой антикоррупционной позицией. Инициаторы подчеркнули, что воспринимают результат как «интеллектуальную консультацию», а не как призыв к действию.

Внутри страны реакция разделилась. Часть комментаторов увидела в эпизоде пример «трезвого» пользования инструментом — когда машина не голосует, а помогает структурировать аргументы. Другие напомнили о рисках: языковые модели склонны к галлюцинациям, их ответы зависят от формулировки вопроса и обучающих данных, а значит, «выбор ИИ» может отражать не факты, а статистические предпочтения корпуса текстов. Ситуацию подогрела фигура самой Карки: она символизирует независимую судебную ветвь, но одновременно остаётся политически чувствительной персоной для части элиты.

Эта история показательна тем, что меняется сама логика политической социализации молодёжи. Алгоритм используется не только как справочник, но и как «собеседник», который структурирует выбор — от вузов и профессий до публичных ролей. В такой роли он усиливает информационную воронку: чем талантливее подводка, тем убедительнее звучит ответ, даже если исходные предпосылки спорны. На этом фоне возрастает значение «мета-грамотности»: умения задавать качественные вопросы, проверять источники и отделять описание от рекомендации.

С практической точки зрения кейс с Непалом поднимает три узких места. Первое — прозрачность: пользователи редко сохраняют промпты и версии ответов, а без этого невозможно понять, что именно сгенерировало результат. Второе — подотчётность: ни у одной стороны нет юридической ответственности за «совет ИИ», и это создаёт риск манипуляций под видом нейтральной экспертизы. Третье — локальный контекст: модели обучены на глобальном корпусе и нередко обобщают, игнорируя специфику региональной политики и языка.

ИЗНАНКА

Алгоритмы не «выбирают лидеров» — они зеркалят массив текстов и наши ожидания. Полезность начинается там, где подростки используют ИИ как инструмент для списка вопросов и проверки фактов, а не как «оракул». Чем прозрачнее процедура и понятнее источники, тем меньше искушение переложить политическую ответственность на машину.

Фото: соцсети.

Читайте, ставьте лайки, следите за обновлениями в наших социальных сетях и присылайте свои материалы в редакцию.

ИЗНАНКА — другая сторона событий.





Улыбка может стать причиной финансовых потерь: за год зафиксировано 43 случая ...

/ / Интересное Автор: Денис Иванов

А долги достигли триллиона рублей

/ / Интересное Автор: Дмитрий Зорин

Препарат MVA-BN, разработанный компанией Bavarian Nordic, получил официальное ...

/ / Интересное Автор: Дарья Никитская