Anthropic відхилила запит Пентагону на зняття обмежень Claude

Anthropic rejects Pentagon push on Claude safeguards - GNcrypto

Даріо Амодеї, CEO Anthropic, заявив: компанія не буде знімати обмеження Claude на масове внутрішнє спостереження та повністю автономну зброю. Це посилює протистояння з Міноборони США — контракт на $200 млн відправлений на перевірку, і не виключені більш широкі заходи з боку уряду.

За словами Амодеї, в січні Пентагон виходив з того, що постачальники ШІ зобов’язані дозволяти застосування своїх розробок для «будь-яких правомірних завдань». Проте, як він написав, Anthropic не готова відмовитися від двох принципових обмежень, які компанія закріпила в оборонних угодах.

У заяві від 26 лютого 2026 року Амодеї повідомив, що Claude вже інтегрований у закриті державні мережі США і активно задіяний у Міністерстві оборони та інших структурах національної безпеки. Модель застосовується в місіях підвищеної важливості — від аналізу розвідувальної інформації та симуляцій до планування операцій і кіберзахисту.

Відмову компанія пояснила вузькою і принциповою позицією, пов’язаною з демократичними стандартами і поточними межами технологій. Використання передових ШІ для тотального внутрішнього моніторингу, на думку Амодеї, несумісне з демократичними цінностями і загрожує новими небезпеками для громадянських прав. Він також підкреслив, що сучасні системи не забезпечують достатньої надійності для повністю автономної зброї без контролю людини.

За даними Anthropic, оборонне відомство США повідомило компанію, що буде співпрацювати тільки з тими постачальниками ШІ, які приймуть принцип «будь-якого законного використання» і відмовляться від захисних обмежень у двох спірних зонах. Більш того, офіційні особи нібито дали зрозуміти, що при збереженні цих умов Anthropic може бути виключена з оборонних систем. Амодеї додав, що Пентагон згадував можливість кваліфікувати компанію як «загрозу ланцюжку поставок» і застосувати Закон про військове виробництво — крок, який він назвав таким, що не узгоджується із заявами про стратегічну важливість Claude для національної безпеки.

Розбіжності загострюються на тлі публічного курсу Пентагону на прискорену інтеграцію передових комерційних AI-рішень. У меморандумі від 9 січня відомство проголосило намір стати «AI-first» збройною силою, закликавши до експериментування з провідними моделями і запуску проектів, що прискорюють впровадження ШІ в бойові операції, розвідку і адміністративні завдання.

Заяви Амодеї пролунали на тлі все більш пильного обговорення того, як великі мовні моделі проявляють себе в симуляціях криз. У дослідженні King’s College London, яке підготував Кеннет Пейн, описано серію «військових ігор» ядерної кризи: в них моделі нового покоління неодноразово виходили на сценарій ескалації з переходом до ядерного застосування. Цей висновок наводять як нагадування про те, що складні системи можуть реагувати агресивно, коли на них тиснуть стратегічні стимули і зберігається високий рівень невизначеності.

Група Public Citizen, яка виступає на захист суспільних інтересів, у цитованих коментарях розкритикувала лінію Пентагону. Вона стверджує, що держава намагається через суспільний тиск змусити ШІ-компанії послабити «огорожі» і попереджає: маркування «supply chain risk» здатне фактично закрити компаніям доступ до великих ринків — далеко за межами одних лише держзакупівель.

В Anthropic заявили, що хочуть продовжувати роботу в інтересах національної безпеки США, зберігаючи два ключові обмеження. Але якщо відомство вирішить відмовитися від послуг компанії, Anthropic пообіцяла забезпечити максимально спокійну передачу проекту іншому провайдеру, щоб не порушити виконання поточних завдань.

Матеріали на GNcrypto надаються виключно з інформаційною метою і не є фінансовою порадою. Ми намагаємось забезпечувати точність та актуальність даних, однак не можемо гарантувати їхню повну достовірність чи надійність. GNcrypto не несе відповідальності за можливі помилки, упущення або фінансові збитки, що можуть виникнути внаслідок використання цієї інформації. Усі дії ви здійснюєте на власний ризик. Завжди проводьте власне дослідження та звертайтесь до фахівців. Детальніше дивіться на наших сторiнках Умови, Політика конфіденційності та Дисклеймер.

Статті цього автора