Пентагонът обяви Anthropic за риск за сигурността на 4 март 2026 г., след като компанията отказа да премахне етичните защити на Claude за военни цели.
Това решение, официално обявено от Министерството на отбраната (преименувано от администрацията на Тръмп на „Министерство на войната“), бележи повратна точка в отношенията между Силициевата долина и Вашингтон. Конфликтът ескалира, след като Anthropic отказа да приеме нова клауза в договорите си, изискваща „неограничена употреба за всички законни цели“. За Пентагона това означава възможност за използване на изкуствен интелект в автономни оръжейни системи и за масово наблюдение. За Anthropic обаче това е прекрачване на техните „червени линии“, заложени в самата архитектура на модела Claude.
Техническото ядро на спора се крие в т.нар. „Constitutional AI“ (Конституционен ИИ). За разлика от традиционните модели, които се обучават чрез човешка обратна връзка (RLHF), Claude се ръководи от набор от етични принципи, които му забраняват да съдейства в дейности, водещи до нарушаване на човешките права или отнемане на живот без пряк човешки контрол. Пентагонът твърди, че тези „вградени задръжки“ пречат на оперативната ефективност на бойното поле и поставят американските войници в риск спрямо противници, които не спазват подобни етични норми. Обозначаването на Anthropic като „supply chain risk“ (риск за веригата на доставки) е най-тежката административна санкция, налагана на американска софтуерна компания, като досега тя беше запазена предимно за чуждестранни субекти като Huawei и ZTE.
Правните последици са огромни. Съгласно Федералния регламент за придобиване (FAR 52.204-30), това решение на практика забранява на всеки държавен изпълнител или подизпълнител да използва услугите на Anthropic в рамките на правителствени проекти. Изпълнителният директор на Anthropic, Дарио Амодей, нарече акта „отмъстителен и наказателен“, заявявайки, че компанията ще търси правата си в съда. Според него, опитът на правителството да принуди частна компания да премахне защитните механизми на своята технология е опасен прецедент, който застрашава сигурността на цялата AI индустрия.