Антипатичний: У нас немає «рубільника» від моделей Claude у закритих системах Пентагону

Антипатичний: У нас немає «рубільника» від моделей Claude у закритих системах Пентагону

5 hardware

Коротке викладення новинного матеріалу

Anthropic, компанія-розробник штучного інтелекту Claude, заявила, що після розгортання своїх моделей у закритих системах Пентаґону вона не має доступу до цих систем і можливості впливати на їхню роботу. Це твердження спростовує аргументи військового міністра Пітера Хегсета, який стверджував, що Anthropic представляє загрозу для ланцюжка постачань.

1. Технічні деталі розгортання
* Дело № 26‑1049 – 60-сторінковий позов, поданий до Апеляційного суду округу Колумбія.
* У позові докладно описується архітектура Claude у Пентаґоні: модель «статична» — вона не змінюється сама по собі і не деградує.
* Anthropic не може:
* Надсилати оновлення;
* Впроваджувати вразливості;
* Вимикати систему віддалено;
* Мати бекдор або віддалений доступ до інфраструктури Міністерства оборони (DOW).
* Перед розгортанням уряд самостійно тестує кожну модель і проводить багаторівневий аналіз її поведінки.
* Якщо інженери Anthropic отримують допуск до секретних даних, вони можуть працювати з моделлю лише за рішенням відомства та під його суворим контролем.

2. Протиріччя аргументів міністра
Міністр Хегсет і заміс по дослідженнях Еміл Майкл стверджували, що Anthropic прагне отримати «операційне вето» над військовими операціями та може підпільно змінити Claude або вимкнути його у бою.
Anthropic відкидає ці заяви як необґрунтовані, оскільки фізично не має можливості виконати жодну з перелічених дій.

3. Політика використання Claude
* Конфлікт виник із спору про два пунктів політики допустимого застосування моделі:
* Заборона використання Claude для летального автономного озброєння;
* Заборона масового спостереження за американськими громадянами.
* Anthropic вважає, що модель недостатньо надійна для цих завдань: помилка у автономному бойовому рішенні може коштувати життя військовослужбовців або мирних жителів, а існуюча правова база не враховує масштаб обробки даних ІІ-системами.

4. Переговори з Пентаґоном
* У вересні 2025 року Пентаґон вперше вимагав дозволу «усі законні застосування» Claude.
* Після кількох місяців переговорів:
* 24 лютого 2026 Хегсет особисто зустрівся з генеральним директором і співзасновником Anthropic Дарио Амодей, назвав можливості моделі видатними та запропонував співпрацю.
* У той же час він висунув ультиматум: якщо до 27 лютого компанія не погодиться, вона буде оголошена загрозою для ланцюжка постачань.
* 26 лютого Амодей відповів публічно, підкреслюючи, що рішення про військові операції приймає Пентаґон, а Anthropic «не може по совісті» прийняти умови міністра. Він відзначив протиріччя: одночасно оголошувати компанію загрозою і вимагати її присутності у бойових системах.

5. Наслідки для бізнесу
* Статус загрози поширюється на всі продукти та послуги Anthropic, а також на будь-які прямі або субпідрядні контракти з Пентаґоном.
* DOW розірвала дво-рокове угоду вартістю до $200 млн.
* Меморандум від 6 березня зобов’язав усі підрозділи відомства припинити використання продукції Anthropic і виключити компанію зі списків затверджених постачальників протягом 180 днів.

6. Судовий процес
* Апеляційний суд округу Колумбія відмовив Anthropic у призупиненні статусу загрози, але призначив прискорене розгляд справи по суті.
* Суд визнав, що компанія висуває серйозні доводи і може понести непоправну шкоду під час розслідування.
* Нові слухання заплановані на 19 травня 2026.

Висновок:
Anthropic стверджує, що не має технічної можливості впливати на свої моделі у Пентаґоні, тим самим спростовуючи звинувачення міністра Хегсета. Незважаючи на це, компанія зіткнулася з серйозними юридичними та комерційними наслідками через рішення уряду про статус загрози ланцюжку постачань. Судовий процес продовжиться у найближчі місяці.

Коментарі (0)

Поділіться своєю думкою — будь ласка, будьте ввічливі та по темі.

Поки немає коментарів. Залиште коментар — поділіться своєю думкою!

Щоб залишити коментар, увійдіть в акаунт.

Увійдіть, щоб коментувати