Этический кризис: Пентагон выдвигает ультиматум, пересматривая национальную безопасность и директивы Кремниевой долины.
28/02/2026
Кризис контрактов Пентагона: спор между этикой Силиконовой долины и национальной безопасностью.
27 февраля 2026 года Министерство обороны США выдвинуло ультиматум компании искусственного интеллекта Anthropic: необходимо снять все ограничения на военное применение её модели ИИ Claude, в противном случае будет расторгнут контракт стоимостью 200 миллионов долларов. Этот спор, начавшийся из-за пунктов о технологической этике, быстро обострился в течение 24 часов. Президент Трамп через платформу Truth Social приказал всем федеральным агентствам прекратить использование технологий Anthropic, а министр обороны Пит Хеггес внес эту компанию из Кремниевой долины в список рисков для цепочек поставок. В тот же день генеральный директор OpenAI Сэм Олтман на внутреннем совещании сообщил, что они ведут переговоры с Пентагоном о соглашении, включающем "красные линии" безопасности. Этот конфликт стал самой публичной силовой игрой между технологическими компаниями и военными структурами США с момента коммерциализации технологий генеративного ИИ.
Вспышка и эскалация кризиса контракта.
Искра кризиса скрыта в деталях технического протокола. Согласно внутренней информации, полученной журналом Fortune, конфликт между Anthropic и Пентагоном сосредоточен на трех ограничительных пунктах, которые компания называет «красными линиями»: запрет на использование ИИ для массовой внутренней слежки, запрет на применение в полностью автономных летальных системах вооружения и запрет на принятие ключевых решений без человеческого надзора. Эти условия были включены в модель ИИ Claude, которую Anthropic предоставила Министерству обороны через компанию по обработке данных Palantir.
25 февраля министр обороны Хегсес выдвинул ультиматум компании Anthropic, потребовав снять эти ограничения до пятницы, иначе контракт будет расторгнут. В публичном заявлении Хегсес подчеркнул, что модели ИИ, необходимые Министерству обороны, должны быть пригодны для всех законных целей. 26 февраля соучредитель и генеральный директор Anthropic Дарио Амодеи ответил в корпоративном блоге, заявив, что некоторые применения ИИ полностью выходят за рамки того, что текущие технологии могут выполнять безопасно и надежно. Это публичное противостояние разозлило администрацию Трампа. 27 февраля Трамп написал в Truth Social: «Я приказываю каждому федеральному агентству правительства США немедленно прекратить использование всех технологий Anthropic. Они нам не нужны, нежелательны, и мы больше не будем иметь с ними дела!» Одновременно он дал Министерству обороны шестимесячный переходный период для удаления систем Anthropic.
Более жесткие санкции последовали одна за другой. Хегсес объявил о включении Anthropic в список рисков для цепочки поставок — это правовое определение, которое ранее обычно применялось только к иностранным технологическим компаниям, считающимся прямой угрозой национальной безопасности США. Анализ Sky News указывает, что этот шаг означает, что Anthropic может столкнуться с более широкими государственными запретами на ведение бизнеса и проверками. Публичное раскрытие кризиса произошло быстрее, чем ожидали многие. Всего несколько месяцев назад Claude AI был ключевым компонентом приоритетной стратегии Пентагона в области искусственного интеллекта, используемым для чувствительного военного планирования и операций, включая систему искусственного интеллекта Marvin, разработанную в январе 2026 года для захвата президента Венесуэлы Николаса Мадуро.
Потребности Пентагона и этика Кремниевой долины.
Стратегически этот конфликт представляет собой столкновение двух логических систем. Позиция Пентагона основана на его стратегии модернизации обороны с приоритетом искусственного интеллекта. Официальные лица Министерства обороны в частных беседах с журналистами раскрыли, что генеративный ИИ обладает преобразующим потенциалом в области анализа разведданных, логистического планирования, киберзащиты, имитационного обучения и поддержки быстрого принятия решений. Claude AI, будучи на тот момент единственной передовой моделью, получившей разрешение на широкое развертывание внутри Пентагона, уже интегрирована в несколько ключевых систем. Требование предоставить доступ ко всем законным вариантам использования отражает фундаментальную потребность военных учреждений в надежности технологических инструментов — в боевой обстановке они не могут принять систему ИИ, которая может отказаться выполнять задачу в критический момент.
Позиция Anthropic уходит корнями в историю основания компании. Она была создана в 2021 году группой исследователей, покинувших OpenAI из-за опасений по поводу безопасности. Её корпоративная культура делает акцент на управляемом ИИ и концепции конституционного ИИ, то есть на прямом внедрении этических принципов в поведенческие ограничения моделей. Сам Амодей является известным сторонником безопасности ИИ и неоднократно предупреждал на слушаниях в Конгрессе о рисках неконтролируемой милитаризации ИИ. Внутренние документы компании показывают, что конкретные сценарии, вызывающие обеспокоенность у Anthropic, включают: использование систем распознавания лиц на основе ИИ для массового отслеживания внутренних протестующих; принятие решений о применении летальной силы автономными беспилотными системами без вмешательства человека; а также возникновение неотслеживаемых предубеждений в аналитической разведке с помощью ИИ, ведущих к ошибочной идентификации целей.
Вмешательство OpenAI усложнило ситуацию. 28 февраля Сэм Олтман объявил на платформе X, что было достигнуто принципиальное соглашение с Министерством обороны, позволяющее последнему использовать модели OpenAI, но с гарантиями безопасности. Олтман четко написал: наши два важнейших принципа безопасности — запрет на массовое наблюдение на национальном уровне и сохранение человеческой ответственности при применении силы (включая автономные системы вооружения). Он сообщил, что Пентагон поддержал эти принципы, отраженные в его законодательстве и политике, и мы также включили их в соглашение. Согласно протоколу внутреннего собрания OpenAI, полученному Fortune, Олтман сообщил сотрудникам, что правительство согласилось, чтобы OpenAI построила собственную систему безопасности — многоуровневую систему технологий, политик и ручного контроля, находящуюся между мощными моделями ИИ и их реальным использованием. Если модель откажется выполнять какую-либо задачу, правительство не будет принуждать OpenAI заставить её это сделать.
Фрагментация отраслей и влияние геополитики
Этот спор создает раскол внутри Кремниевой долины. Более 400 сотрудников из Google и OpenAI подписали открытое письмо, призывая индустрию искусственного интеллекта объединиться против позиции Министерства обороны. В письме говорится: разрешение использования систем ИИ для наблюдения и автономного оружия без четких гарантий создаст опасный прецедент, подрывающий глобальное доверие к этой технологии. С другой стороны, подрядчики Министерства обороны, включая Palantir, публично поддерживают позицию Пентагона, считая, что коммерческие компании ИИ не имеют права налагать односторонние ограничения на то, как правительство использует законно полученные инструменты.
Геополитическое измерение делает ситуацию ещё более деликатной. Внутренние протоколы встреч OpenAI упоминают, что одним из аспектов, вызывающих наибольшее беспокойство у руководства компании во время переговоров, является проблема иностранного наблюдения, особенно опасения, что искусственный интеллект может угрожать демократии. Однако в протоколах также признаётся реальность: правительства действительно осуществляют наблюдение за международными противниками, и сотрудники служб национальной безопасности не могут работать без возможностей международного мониторинга. На встрече особо упоминались отчеты разведки об угрозах, показывающие, что Китай уже использует модели ИИ для таргетирования диссидентов за рубежом. Такое понимание создаёт противоречивое настроение: компании Кремниевой долины хотят придерживаться этических принципов, но также опасаются, что чрезмерные ограничения ослабят технологическое преимущество США по сравнению с конкурентами.
Союзники в Европе и Азии внимательно следят за развитием событий. Как сообщает Sky News Великобритании, жесткая реакция администрации Трампа на Anthropic касается как власти, так и безопасности ИИ. Если самые передовые лаборатории ИИ в США откажутся от неограниченного сотрудничества с военными, а конкурирующие компании ИИ, такие как Китай, не будут иметь аналогичных ограничений, это может изменить баланс конкуренции в области военного ИИ. Некоторые чиновники министерств обороны стран НАТО в частном порядке заявили, что они также оценивают этические рамки политики милитаризации ИИ в своих странах, и этот спор в США предоставляет им важный пример для анализа.
Основные направления будущего: Технологический суверенитет и трансформация бизнес-моделей
Этот кризис может навсегда изменить отношения между индустрией ИИ и правительством. Контракт Пентагона на 200 миллионов долларов для Anthropic не является незаменимым, но включение в список рисков цепочки поставок и полный запрет со стороны федерального правительства окажут глубокое влияние на коммерческие перспективы компании, привлечение талантов и оценку на рынке капитала. Для всей отрасли возникает фундаментальный вопрос: когда технология обладает одновременно огромной коммерческой ценностью и важностью для национальной безопасности, в какой степени частные компании должны сохранять контроль?
Путь, выбранный OpenAI — достижение соглашения через переговоры с конкретными техническими гарантиями — может стать компромиссным шаблоном. На внутренней встрече Олтман подчеркнул, что OpenAI сохранит контроль над тем, как реализуются технические гарантии, какие модели где развертываются, и ограничит развертывание облачными средами, а не периферийными системами. В военном контексте периферийные системы могут включать боевые платформы, такие как самолеты и беспилотники. Остается вопрос, сможет ли такая модель контролируемого доступа удовлетворить практические потребности Пентагона.
Более глубокое влияние заключается в концепции технологического суверенитета. Администрация Трампа, включив ведущую американскую компанию в области ИИ в список рисков, нарушила традиционное предположение, что отечественные технологии автоматически являются безопасными. Это может побудить Министерство обороны ускорить инвестиции в собственные разработки в сфере ИИ или больше склоняться к сотрудничеству с оборонными подрядчиками, чья структура собственности проще и легче контролируется. В долгосрочной перспективе этот спор может привести к формированию двух отдельных экосистем технологий ИИ: одной — коммерческого ИИ, подчиняющегося строгим этическим ограничениям, и другой — государственного ИИ, разработанного для нужд национальной безопасности и функционирующего по иным правилам.
Противостояние между Вашингтоном и Силиконовой долиной еще не закончилось. Шестимесячный переходный период предоставил обеим сторонам пространство для маневра, но основное противоречие — гибкость, необходимая для национальной безопасности, и ограничения, требуемые технологической этикой — не исчезнет легко. Этот спор, начавшийся из-за пунктов технического контракта, превратился в общенациональную дискуссию о распределении власти, принадлежности ответственности и управлении технологиями в эпоху ИИ. Его результат определит не только судьбу нескольких компаний, но и сформирует правила сосуществования искусственного интеллекта и человеческого общества в ближайшие десять лет.