510

WSJ связала Claude с секретной операцией США в Венесуэле

Американская пресса пишет, что ИИ-модели начинают использоваться не только для офисной рутины, но и для планирования чувствительных задач. Anthropic напоминает: правила компании запрещают насилие и слежку.

WSJ связала Claude с секретной операцией США в Венесуэле
Модель Claude от Anthropic могла применяться американскими военными при планировании операции, связанной с президентом Венесуэлы Николасом Мадуро, сообщил The Wall Street Journal со ссылкой на источники. В Пентагоне и Anthropic от комментариев отказались.


The Wall Street Journal утверждает, что Министерство обороны США использовало Claude в рамках операции, которую издание описывает как «секретную», и связывает её с темой захвата Николаса Мадуро. Детали, включая формат применения ИИ, круг задач и степень участия людей в принятии решений, публикация не раскрывает. Пентагон, по данным WSJ, комментариев не предоставил.

На фоне этих сообщений внимание привлекает позиция самой Anthropic. Компания публично фиксирует ограничения на использование своих моделей: в правилах прямо запрещены сценарии, где ИИ помогает разрабатывать оружие, содействовать насилию, проводить наблюдение или иным образом ущемлять права людей. После публикации WSJ представитель компании заявил, что любое применение моделей «должно соответствовать нашим правилам использования».

В Usage Policy Anthropic содержится оговорка о возможности работы с государственными заказчиками. В таких случаях условия могут адаптироваться под правовые полномочия клиента и публичную миссию ведомства, однако при наличии механизмов защиты и ограничений, которые, по оценке компании, снижают риски злоупотребления. Этот пункт делает вопрос о допустимости военного применения более сложным: формальный запрет сочетается с режимами контрактной настройки.

Если опираться на описание WSJ, практическая роль Claude могла быть прикладной: анализ документов, структурирование информации, подготовка сводок, формирование сценариев и оценка рисков. Подобные задачи уже стали стандартным способом применения больших языковых моделей в корпоративной среде, а государственные структуры используют их в закрытых контурах — от обработки массивов текста до ускорения внутренних процедур.

Ключевой вопрос в подобных случаях — граница между аналитической поддержкой и прямым содействием насилию. Одна и та же функция — например, построение сценариев — может быть нейтральной при логистическом планировании и проблемной, если её используют для причинения вреда. Именно поэтому разработчики ИИ делают ставку на сочетание технических фильтров, договорных ограничений и контроля доступа.

Anthropic ранее подчёркивала, что применяет механизмы enforcement — мониторинг соблюдения политики и ограничение доступа при выявлении нарушений. Однако в ситуациях, связанных с закрытыми государственными проектами, степень прозрачности для внешнего наблюдателя неизбежно снижается: заказчик не раскрывает детали, а разработчик ограничивается ссылкой на соответствие политике использования.

ИЗНАНКА

ИИ всё чаще становится инфраструктурой, встроенной в процессы, которые не попадают в публичную повестку. В центре обсуждения оказывается не только функциональность модели, но и архитектура ответственности — кто принимает решения, где фиксируются ограничения и как они применяются на практике.

Фото: ИЗНАНКА

Читайте, ставьте лайки, следите за обновлениями в наших социальных сетях и присылайте материалы в редакцию.

ИЗНАНКА — другая сторона событий.





С ужесточением правил пребывания в стране столкнутся и россияне

/ / Мир Автор: Михаил Петров

Ей грозит наказание до пяти лет тюрьмы и крупный штраф

/ / Мир Автор: Белла Лебедева