У компании Anthropic и министерства обороны США возникли серьезные разногласия по поводу контракта стоимостью до $200 млн на использование ИИ-модели Claude в военных целях. Переговоры зашли в тупик из-за принципиальных различий в подходах к применению искусственного интеллекта.
Anthropic настаивает на строгих ограничениях, которые запрещают использовать их ИИ для автономного наведения оружия на цели и внутренней слежки за американскими гражданами. Компания требует обязательного человеческого контроля над всеми операциями и участия своих специалистов в настройке моделей.
Позиция Пентагона
Министерство обороны выступает против дополнительных корпоративных ограничений, считая, что использование ИИ должно регулироваться исключительно федеральным законодательством США. По мнению военных, самостоятельные ограничения со стороны технологических компаний могут серьезно помешать работе государственных ведомств.
Особое беспокойство у Пентагона вызывают потенциальные препятствия для Федерального бюро расследований (ФБР) и Иммиграционной и таможенной службы (ICE). Ограничения Anthropic могут существенно осложнить деятельность этих ведомств в области национальной безопасности.
Корпоративная этика против государственных интересов
Anthropic обосновывает свою позицию опасениями по поводу возможных злоупотреблений технологией искусственного интеллекта. Компания настаивает на том, что человеческий надзор должен оставаться неотъемлемой частью любого военного применения их разработок.
Такой подход отражает более широкую дискуссию в технологической индустрии о балансе между инновациями и этическими принципами. Многие компании, работающие с ИИ, сталкиваются с дилеммой: как сотрудничать с государственными структурами, не нарушая собственные моральные установки.
История соглашения
Контракт между Anthropic и Пентагоном был впервые анонсирован в июле 2025 года. Двухлетнее соглашение на $200 млн предусматривало прототипирование и сотрудничество в области национальной безопасности.
Однако с момента объявления компания не предоставляла обновлений о ходе переговоров. Текущий конфликт стал первой публичной информацией о проблемах в реализации договоренностей.
Разногласия между Anthropic и Пентагоном отражают фундаментальные противоречия между корпоративной этикой и государственными потребностями в сфере безопасности. Исход этих переговоров может стать прецедентом для будущих соглашений между технологическими компаниями и военными ведомствами.
Мнение ИИ
С точки зрения машинного анализа данных, конфликт между Anthropic и Пентагоном может стать катализатором для появления новых игроков на рынке военного ИИ. История показывает, что жесткие этические позиции крупных технологических компаний часто открывают возможности для менее щепетильных стартапов — достаточно вспомнить, как Google отказался от проекта Maven, а его место заняли другие подрядчики.
Ситуация демонстрирует фундаментальное противоречие современной ИИ-индустрии: компании хотят быть «этичными», но при этом не готовы отказываться от прибыльных контрактов полностью. $200 млн — это серьезная сумма даже для Anthropic, и компания, скорее всего, будет искать компромисс, который формально сохранит ее репутацию, но позволит получить деньги. Вопрос лишь в том, насколько творчески юристы смогут интерпретировать понятие «этических ограничений».
▼
Самые интересные и важные новости на нашем канале в Telegram