17 февраля 2026 11:27:04

Anthropic ограничивает военное применение модели Claude

Разногласия между Пентагоном и Anthropic могут привести к срыву контракта на внедрение ИИ Claude в оборонные системы США.

Компания Anthropic, один из заметных игроков на рынке искусственного интеллекта, оказалась в центре спора с Министерством обороны США. Причиной стали условия использования модели Claude в военных разработках.

Пентагон настаивает на том, что технологии, закупаемые для нужд армии, должны применяться без дополнительных корпоративных ограничений, если речь идет о законных задачах национальной безопасности. В ведомстве считают, что гибкость является обязательным условием для стратегических проектов.

Anthropic сохраняет жесткую позицию. В компании закреплены правила, запрещающие использование Claude в автономных вооружениях и в системах массового наблюдения без участия человека. Руководство подчеркивает, что ответственность разработчиков за последствия внедрения ИИ особенно велика в сферах, связанных с человеческими жизнями.

Контракт на сумму до 200 млн долларов, подписанный летом, предусматривает интеграцию Claude в оборонные решения. Однако из-за разногласий его реализация оказалась под вопросом. В Пентагоне не исключают пересмотра сотрудничества.

Как отмечает портал «boda», история вокруг Claude показывает, что технологические компании все чаще стремятся самостоятельно определять рамки применения своих продуктов, даже если речь идет о крупных государственных заказах.