524
ИИ будет выявлять потенциальных убийц: в Британии разгорается скандал
Министерство юстиции Великобритании тестирует алгоритмы, анализирующие преступников и жертв. Проект уже назвали антиутопичным.

Изначально инициатива называлась «Проект прогнозирования убийств», однако после начала работы была переименована в более нейтральное название — «Обмен данными для улучшения оценки рисков». Несмотря на изменение формулировки, суть осталась прежней: ИИ должен анализировать большие массивы данных, чтобы предсказывать, кто из ранее осужденных может совершить убийство в будущем.
По информации Statewatch — британской организации, отслеживающей деятельность государства в сфере прав и свобод — в проекте задействованы данные тысяч людей. Причем в массивах фигурируют не только осужденные, но и жертвы насилия. Используются такие параметры, как имя, дата рождения, пол, этническая принадлежность и даже уникальные идентификаторы полиции. Источники данных — Служба пробации, полиция Большого Манчестера и другие правоохранительные структуры.
По замыслу разработчиков, программа должна помочь службе пробации эффективнее управлять рисками, то есть отслеживать, какие из поднадзорных лиц могут представлять опасность для общества. Однако критики утверждают: такой подход открывает путь к «научной стигматизации» и может привести к тому, что человека начнут считать опасным на основании формального набора характеристик.
Statewatch указывает, что в системе могут оказаться люди, которые никогда не нарушали закон, но фигурировали в делах о домашнем насилии как жертвы. Таким образом, сбор и обработка их персональных данных ставится под вопрос с точки зрения этики и закона.
Отдельный источник подчеркивает, что проект был начат при поддержке канцелярии бывшего премьер-министра Риши Сунака. Это обстоятельство также усилило критику в адрес властей, особенно на фоне обострения дебатов вокруг приватности, цифровых прав и вмешательства государства в личную жизнь.
Министерство юстиции утверждает, что ИИ используется исключительно в исследовательских целях и не повлияет напрямую на судебные решения или надзорные меры. Тем не менее, общественные организации требуют большей прозрачности: кто разрабатывает алгоритмы, как они обучаются и на каких принципах работают.
«Проект, в котором ИИ судит о людях на основе их прошлого и пола, — это уже не просто наука, а социальный эксперимент», — заявил представитель организации Liberty, борющейся за права человека в Великобритании.
На фоне этого растёт обеспокоенность тем, как ИИ будет внедряться в государственные практики и не приведёт ли это к непредсказуемым последствиям для миллионов граждан.
Фото: Соцсети.
ИЗНАНКА — другая сторона событий. Следите за обновлениями в наших соцсетях и присылайте свои материалы в редакцию.

«Она повлияла на стиль и веселье»: Леди Маргарита — о принцессе Маргарет
Двоюродная племянница короля Карла III поделилась воспоминаниями о своей знаме...
/ / Мир
Автор: Максим Сабуров

Нетаниягу обсудил с Макроном тему палестинского государства: “Награда за терроризм”
Израильский премьер-министр резко высказался о возможном признании Палестины и...
/ / Мир
Автор: Максим Сабуров

Президенты США и РФ встретились в Ташкенте,присутствовал Маск и другие
В столице Узбекистана Маск, монархи и Путин из воска: кого можно встретить в т...
/ / Мир

Цукерберга могут заставить продать Instagram*: в чем его обвиняет суд?
Антимонопольный иск может привести к разделу Meta — в США начинается резонансн...
/ / Мир
Автор: Денис Иванов

Князь Альбер и княгиня Шарлен на финале Rolex Monte-Carlo Masters: история турнира и блеск королевской четы
Пара вручили награды победителям одного из самых престижных теннисных турниров...
/ / Мир
Автор: Максим Сабуров