Anthropic отклонила запрос Пентагона на снятие ограничений Claude

Anthropic rejects Pentagon push on Claude safeguards - GNcrypto

Дарио Амодеи, CEO Anthropic, заявил: компания не станет убирать ограничения Claude на массовое внутреннее наблюдение и полностью автономное оружие. Это усиливает противостояние с Минобороны США — контракт на $200 млн отправлен на проверку, и не исключены более широкие меры со стороны правительства.

По словам Амодеи, в январе Пентагон исходил из того, что поставщики ИИ обязаны разрешать применение своих разработок для «любых правомерных задач». Тем не менее, как он написал, Anthropic не готова отказаться от двух принципиальных ограничений, которые компания закрепила в оборонных соглашениях.

В заявлении от 26 февраля 2026 года Амодеи сообщил, что Claude уже интегрирован в закрытые государственные сети США и активно задействован в Министерстве обороны и других структурах национальной безопасности. Модель применяется в миссиях повышенной значимости — от анализа разведывательной информации и симуляций до планирования операций и киберзащиты.

Отказ компания объяснила узкой и принципиальной позицией, связанной с демократическими стандартами и текущими пределами технологий. Использование передовых ИИ для тотального внутреннего мониторинга, по мнению Амодеи, несовместимо с демократическими ценностями и чревато новыми угрозами для гражданских прав. Он также подчеркнул, что современные системы не обеспечивают достаточной надёжности для полностью автономного оружия без контроля человека.

По данным Anthropic, оборонное ведомство США уведомило компанию, что будет сотрудничать только с теми поставщиками ИИ, которые примут принцип «любого законного использования» и откажутся от защитных ограничений в двух спорных зонах. Более того, официальные лица якобы дали понять, что при сохранении этих условий Anthropic может быть исключена из оборонных систем. Амодеи добавил, что Пентагон упоминал возможность квалифицировать компанию как «угрозу цепочке поставок» и применить Закон о военном производстве — шаг, который он назвал несогласующимся с заявлениями о стратегической важности Claude для национальной безопасности.

Разногласия обостряются на фоне публичного курса Пентагона на ускоренную интеграцию передовых коммерческих ИИ-решений. В меморандуме от 9 января ведомство провозгласило намерение стать «AI-first» вооружённой силой, призвав к экспериментированию с ведущими моделями и запуску проектов, ускоряющих внедрение ИИ в боевые операции, разведку и административные задачи.

Заявления Амодеи прозвучали на фоне всё более пристального обсуждения того, как большие языковые модели проявляют себя в симуляциях кризисов. В исследовании King’s College London, которое подготовил Кеннет Пейн, описана серия «военных игр» ядерного кризиса: в них модели нового поколения неоднократно выходили на сценарий эскалации с переходом к ядерному применению. Этот вывод приводят как напоминание о том, что сложные системы могут реагировать агрессивно, когда на них давят стратегические стимулы и сохраняется высокий уровень неопределённости.

Группа Public Citizen, выступающая в защиту общественных интересов, в цитируемых комментариях раскритиковала линию Пентагона. Она утверждает, что государство пытается через общественное давление вынудить ИИ-компании ослабить «ограждения», и предупреждает: маркировка «supply chain risk» способна фактически закрыть компании доступ к крупным рынкам — далеко за пределами одних лишь госзакупок.

В Anthropic заявили, что хотят продолжать работу в интересах национальной безопасности США, сохраняя два ключевых ограничения. Но если ведомство решит отказаться от услуг компании, Anthropic пообещала обеспечить максимально спокойную передачу проекта другому провайдеру, чтобы не нарушить выполнение текущих задач.

Материалы на GNcrypto предоставляются исключительно в информационных целях и не являются финансовой рекомендацией. Мы стремимся публиковать точные и актуальные данные, однако не можем гарантировать их абсолютную достоверность, полноту или надёжность. GNcrypto не несёт ответственности за возможные ошибки, упущения или финансовые потери, возникшие вследствие использования данной информации. Все действия вы совершаете на свой страх и риск. Всегда проводите собственный анализ и консультируйтесь с профессионалами. Подробнее см. в наших страницах Условия, Политика конфиденциальности и Отказ от ответственности.

Статьи этого автора