https://mymsk.online/posts/id113341-anthropic-ogranichivaet-voennoe-primenenie-modeli-claude
Anthropic ограничивает военное применение модели Claude
Разногласия между Пентагоном и Anthropic могут привести к срыву контракта на внедрение ИИ Claude в оборонные системы США.
Anthropic ограничивает военное применение модели Claude
Разногласия между Пентагоном и Anthropic могут привести к срыву контракта на внедрение ИИ Claude в оборонные системы США.
2026-02-17T11:27+03:00
2026-02-17T11:27+03:00
2026-02-17T11:27+03:00
Технологии
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://mymsk.online/uploads/prew/webp/f7vfGbAETZZ3BorWlNXv.webp
Компания Anthropic, один из заметных игроков на рынке искусственного интеллекта, оказалась в центре спора с Министерством обороны США. Причиной стали условия использования модели Claude в военных разработках.Пентагон настаивает на том, что технологии, закупаемые для нужд армии, должны применяться без дополнительных корпоративных ограничений, если речь идет о законных задачах национальной безопасности. В ведомстве считают, что гибкость является обязательным условием для стратегических проектов.Anthropic сохраняет жесткую позицию. В компании закреплены правила, запрещающие использование Claude в автономных вооружениях и в системах массового наблюдения без участия человека. Руководство подчеркивает, что ответственность разработчиков за последствия внедрения ИИ особенно велика в сферах, связанных с человеческими жизнями.Контракт на сумму до 200 млн долларов, подписанный летом, предусматривает интеграцию Claude в оборонные решения. Однако из-за разногласий его реализация оказалась под вопросом. В Пентагоне не исключают пересмотра сотрудничества.Как отмечает портал «boda», история вокруг Claude показывает, что технологические компании все чаще стремятся самостоятельно определять рамки применения своих продуктов, даже если речь идет о крупных государственных заказах.
Моя Москва.онлайн
info@mymsk.online
Моя Москва.онлайн
2026
Новости
ru-RU
Моя Москва.онлайн
info@mymsk.online
Моя Москва.онлайн
Моя Москва.онлайн
info@mymsk.online
Моя Москва.онлайн
Технологии
Anthropic ограничивает военное применение модели Claude
Разногласия между Пентагоном и Anthropic могут привести к срыву контракта на внедрение ИИ Claude в оборонные системы США.
Автор: Татьяна Лытенкова
17 февраля 2026
Фото: Generated by DALL·E
Компания Anthropic, один из заметных игроков на рынке искусственного интеллекта, оказалась в центре спора с Министерством обороны США. Причиной стали условия использования модели Claude в военных разработках.
Пентагон настаивает на том, что технологии, закупаемые для нужд армии, должны применяться без дополнительных корпоративных ограничений, если речь идет о законных задачах национальной безопасности. В ведомстве считают, что гибкость является обязательным условием для стратегических проектов.
Anthropic сохраняет жесткую позицию. В компании закреплены правила, запрещающие использование Claude в автономных вооружениях и в системах массового наблюдения без участия человека. Руководство подчеркивает, что ответственность разработчиков за последствия внедрения ИИ особенно велика в сферах, связанных с человеческими жизнями.
Контракт на сумму до 200 млн долларов, подписанный летом, предусматривает интеграцию Claude в оборонные решения. Однако из-за разногласий его реализация оказалась под вопросом. В Пентагоне не исключают пересмотра сотрудничества.
Как отмечает портал «boda», история вокруг Claude показывает, что технологические компании все чаще стремятся самостоятельно определять рамки применения своих продуктов, даже если речь идет о крупных государственных заказах.