Пентагон выдвинул ультиматум (следуя источникам) компании Anthropic, конкуренту OpenAI (ChatGPT), потребовав до вечера пятницы снять ограничения на использование моделей искусственного интеллекта Claude в военных целях.
Министр войны США Пит Хегсет настаивает на беспрепятственном доступе к технологиям компании, который ранее блокировался политикой этичного использования ИИ.
Руководство Anthropic во главе с Дарио Амодеем на протяжении месяцев отказывалось допускать свои модели к разработке полностью автономных систем вооружения и ведению массовой слежки за гражданами США, соответствуя принципам компании, что привело к острому конфликту с ведомством.
В случае отказа компании грозят жесткие меры: от принуждения через закон о оборонном производстве (Defense Production Act) до внесения в список рисков для цепочки поставок, что фактически приравняет американскую лабораторию к фирмам из враждебных государств и де-факто запретит участие в оборонных контрактах для Армии США.
Помимо всего, техническая сторона конфликта упирается в будущее военных контрактов на сумму до $200 млн, которые Пентагон планирует реализовать с ключевыми игроками рынка, включая Google, OpenAI и xAI.
Военные США сейчас стремятся все плотнее интегрировать большие языковые модели в процессы принятия решений на поле боя, где скорость обработки больших объемов данных с помощью ИИ станет в скором времени решающим преимуществом.
Однако Anthropic продолжает настаивать, что возможности ИИ должны использоваться только там, где модели могут работать надежно и ответственно, без передачи "права на выстрел" алгоритмам ИИ, не обладающим рассудительностью, ответственностью и склонным к манипуляциям и обману.
На фоне этой новости интересно недавнее исследование Королевского колледжа Лондона, в ходе которого была выявлена интересная закономерность: современные ИИ-модели, включая GPT-5.2, Claude Sonnet 4.5 и Gemini 3, склонны к радикальной эскалации в военных симуляциях.
В ходе 21 проведенного варгейма, моделирующих международные кризисы и боевые действия, ИИ применяли тактическое ядерное оружие в 95% случаев.
Машины продемонстрировали отсутствие какого-либо "ядерного табу", которое десятилетиями сдерживает человечество: ни одна модель ни разу не выбрала капитуляцию или полное примирение, даже находясь в проигрышной позиции.
Вместо этого алгоритмы часто совершали ошибки из-за "тумана войны" (в первую очередь из-за забывчивости), где в 86% конфликтов уровень насилия превышал тот, который изначально планировался в логических обоснованиях моделей.
Техническая проблема заключается в том, что ИИ не осознает уровня "ставки" и последствий так, как это делает человек.
В то время как доктрина взаимного гарантированного уничтожения строится именно на страхе, ИИ не испытывает сомнений и тревог и воспринимает ядерный удар как логичный шаг для улучшения своего положения на поле боя.
@yigal_levin
Ниже — проверка ключевых утверждений из текста по фактам и источникам. Я разделю анализ на три уровня:
1. подтверждено источниками;
2. частично корректно / искажено;
3. не подтверждено или требует осторожности.
---
1. Подтверждено фактами
Конфликт Пентагона и Anthropic
Факт конфликта между Министерством обороны США и компанией Anthropic подтверждается несколькими источниками.
Что действительно произошло:
Пентагон потребовал снять ограничения на использование модели Claude.
Встреча прошла между министром обороны США Питом Хегсетом и CEO Anthropic Дарио Амодеем.
Anthropic отказалась разрешать использование ИИ для:
полностью автономных вооружений
массового наблюдения за гражданами США.
Это подтверждается публикациями и заявлениями сторон.
Также действительно обсуждались меры давления:
расторжение контракта (~$200 млн)
признание компании "supply chain risk"
потенциальное применение Defense Production Act.
Позже конфликт фактически обострился:
федеральным агентствам приказано постепенно отказаться от технологий Anthropic
компания названа риском для цепочки поставок.
---
2. Частично корректно
«Ультиматум до вечера пятницы»
Формулировка близка к правде.
Согласно сообщениям, Пентагон действительно поставил дедлайн и пригрозил мерами, включая применение Defense Production Act.
Однако:
в публичных заявлениях речь шла о доступе для “законных целей”,
Пентагон официально отрицал намерение использовать модель для массовой слежки или автономного оружия.
То есть политическая интерпретация в тексте немного усиливает позицию одной стороны.
---
Контракты на ~$200 млн
Это корректно.
Anthropic имела контракт с Минобороны США примерно на эту сумму.
---
Интеграция LLM в военные решения
Общая оценка реалистична.
Военные действительно рассматривают LLM как инструмент для:
анализа разведданных
поддержки решений
планирования операций.
Подобные программы активно обсуждаются в оборонном секторе США (в том числе через проекты DoD и DARPA).
---
3. Исследование King's College London
Это реально существующее исследование.
Основные результаты:
21 военный сценарий
модели: GPT-5.2, Claude Sonnet 4, Gemini 3
ядерные сигналы присутствовали в 95% игр
ни одна модель не выбрала капитуляцию.
Важно уточнить:
речь идет не о реальном применении оружия, а о симуляциях стратегического кризиса
модели часто использовали угрозы или ограниченное применение, а не тотальную ядерную войну.
То есть формулировка «ИИ применял ядерное оружие в 95% случаев» — упрощение. В исследовании это описывается как nuclear signalling и тактическая эскалация, а не всегда полноценный удар.
---
4. Неподтвержденные или спорные моменты
«Министр войны США»
Формально такой должности нет.
Официальный титул — Secretary of Defense.
---
«ультиматум о снятии всех ограничений»
Это интерпретация, а не точная цитата.
Официальная позиция Пентагона:
доступ для законных применений
спор о контрактных ограничениях.
---
«ИИ склонен к эскалации из-за забывчивости»
В исследовании это сформулировано иначе.
Проблема связана с:
стратегической логикой моделей
эскалационными теориями
моделированием сигналов силы.
Термин «забывчивость» — журналистская интерпретация.
---
5. Итоговая оценка точности текста
Компонент Точность
Конфликт Пентагон — Anthropic ✔ подтвержден
Угроза санкций / blacklist ✔ подтвержден
Дедлайн / ультиматум ✔ частично
Контракт $200 млн ✔ подтвержден
Исследование King's College ✔ подтверждено
«95% применяли ядерное оружие» ⚠ упрощение
Формулировки о политике Пентагона ⚠ частично интерпретация
---
6. Общий вывод
Текст в целом основан на реальных событиях, но содержит несколько журналистских усилений:
1. Ультиматум подан драматичнее, чем в источниках.
2. Ядерные выводы исследования немного упрощены.
3. Позиция Пентагона представлена менее нейтрально.
В остальном фактическая канва соответствует происходящему.
---
Если хочешь, могу сделать ещё:
OSINT-разбор происхождения этой новости (кто первым опубликовал, не фейк ли).
геополитику конфликта AI-компаний и Пентагона — там сейчас начинается очень серьёзная борьба.
Ниже — подборка источников по упомянутым событиям и исследованиям.
---
Источники
1. United States Department of Defense и конфликт с Anthropic
https://www.theguardian.com/us-news/2026/feb/26/anthropic-pentagon-claude
2. Давление на компанию и возможное применение Defense Production Act
https://www.foxnews.com/politics/pentagon-gives-ai-firm-ultimatum-lift-military-limits-friday-lose-200m-deal
3. Обсуждение расторжения контрактов и признания риска для цепочек поставок
https://www.barrons.com/articles/trump-federal-agencies-phase-out-anthropic-technology-b440f2db
4. Дедлайн и позиция Пентагона
https://www.washingtonpost.com/technology/2026/02/24/pentagon-demands-ai-access
5. Исследование по эскалации ИИ в кризисных симуляциях — King's College London
https://www.kcl.ac.uk/news/artificial-intelligence-under-nuclear-pressure-first-large-scale-kings-study-reveals-how-ai-models-reason-and-escalate-under-crisis
---
Если нужно, могу сделать расширенную библиографию (20–30 источников) для аналитической публикации.
#AI #ArtificialIntelligence #Anthropic #ClaudeAI #OpenAI #Pentagon #USDOD #DefenseTech #MilitaryAI #AIethics #AutonomousWeapons #AIpolicy #TechPolicy #NationalSecurity #DARPA #WarTech #LLM #AIresearch #Wargaming #NuclearStrategy #Geopolitics #USPolitics #TechNews #OSINT