Follow

Пентагон выдвинул ультиматум (следуя источникам) компании Anthropic, конкуренту OpenAI (ChatGPT), потребовав до вечера пятницы снять ограничения на использование моделей искусственного интеллекта Claude в военных целях.

Министр войны США Пит Хегсет настаивает на беспрепятственном доступе к технологиям компании, который ранее блокировался политикой этичного использования ИИ.

Руководство Anthropic во главе с Дарио Амодеем на протяжении месяцев отказывалось допускать свои модели к разработке полностью автономных систем вооружения и ведению массовой слежки за гражданами США, соответствуя принципам компании, что привело к острому конфликту с ведомством.

В случае отказа компании грозят жесткие меры: от принуждения через закон о оборонном производстве (Defense Production Act) до внесения в список рисков для цепочки поставок, что фактически приравняет американскую лабораторию к фирмам из враждебных государств и де-факто запретит участие в оборонных контрактах для Армии США.

Помимо всего, техническая сторона конфликта упирается в будущее военных контрактов на сумму до $200 млн, которые Пентагон планирует реализовать с ключевыми игроками рынка, включая Google, OpenAI и xAI.

Военные США сейчас стремятся все плотнее интегрировать большие языковые модели в процессы принятия решений на поле боя, где скорость обработки больших объемов данных с помощью ИИ станет в скором времени решающим преимуществом.

Однако Anthropic продолжает настаивать, что возможности ИИ должны использоваться только там, где модели могут работать надежно и ответственно, без передачи "права на выстрел" алгоритмам ИИ, не обладающим рассудительностью, ответственностью и склонным к манипуляциям и обману.

На фоне этой новости интересно недавнее исследование Королевского колледжа Лондона, в ходе которого была выявлена интересная закономерность: современные ИИ-модели, включая GPT-5.2, Claude Sonnet 4.5 и Gemini 3, склонны к радикальной эскалации в военных симуляциях.

В ходе 21 проведенного варгейма, моделирующих международные кризисы и боевые действия, ИИ применяли тактическое ядерное оружие в 95% случаев.

Машины продемонстрировали отсутствие какого-либо "ядерного табу", которое десятилетиями сдерживает человечество: ни одна модель ни разу не выбрала капитуляцию или полное примирение, даже находясь в проигрышной позиции.

Вместо этого алгоритмы часто совершали ошибки из-за "тумана войны" (в первую очередь из-за забывчивости), где в 86% конфликтов уровень насилия превышал тот, который изначально планировался в логических обоснованиях моделей.

Техническая проблема заключается в том, что ИИ не осознает уровня "ставки" и последствий так, как это делает человек.

В то время как доктрина взаимного гарантированного уничтожения строится именно на страхе, ИИ не испытывает сомнений и тревог и воспринимает ядерный удар как логичный шаг для улучшения своего положения на поле боя.

@yigal_levin

Ниже — проверка ключевых утверждений из текста по фактам и источникам. Я разделю анализ на три уровня:

1. подтверждено источниками;

2. частично корректно / искажено;

3. не подтверждено или требует осторожности.

---

1. Подтверждено фактами

Конфликт Пентагона и Anthropic

Факт конфликта между Министерством обороны США и компанией Anthropic подтверждается несколькими источниками.

Что действительно произошло:

Пентагон потребовал снять ограничения на использование модели Claude.

Встреча прошла между министром обороны США Питом Хегсетом и CEO Anthropic Дарио Амодеем.

Anthropic отказалась разрешать использование ИИ для:

полностью автономных вооружений

массового наблюдения за гражданами США.

Это подтверждается публикациями и заявлениями сторон.

Также действительно обсуждались меры давления:

расторжение контракта (~$200 млн)

признание компании "supply chain risk"

потенциальное применение Defense Production Act.

Позже конфликт фактически обострился:

федеральным агентствам приказано постепенно отказаться от технологий Anthropic

компания названа риском для цепочки поставок.

---

2. Частично корректно

«Ультиматум до вечера пятницы»

Формулировка близка к правде.

Согласно сообщениям, Пентагон действительно поставил дедлайн и пригрозил мерами, включая применение Defense Production Act.

Однако:

в публичных заявлениях речь шла о доступе для “законных целей”,

Пентагон официально отрицал намерение использовать модель для массовой слежки или автономного оружия.

То есть политическая интерпретация в тексте немного усиливает позицию одной стороны.

---

Контракты на ~$200 млн

Это корректно.

Anthropic имела контракт с Минобороны США примерно на эту сумму.

---

Интеграция LLM в военные решения

Общая оценка реалистична.

Военные действительно рассматривают LLM как инструмент для:

анализа разведданных

поддержки решений

планирования операций.

Подобные программы активно обсуждаются в оборонном секторе США (в том числе через проекты DoD и DARPA).

---

3. Исследование King's College London

Это реально существующее исследование.

Основные результаты:

21 военный сценарий

модели: GPT-5.2, Claude Sonnet 4, Gemini 3

ядерные сигналы присутствовали в 95% игр

ни одна модель не выбрала капитуляцию.

Важно уточнить:

речь идет не о реальном применении оружия, а о симуляциях стратегического кризиса

модели часто использовали угрозы или ограниченное применение, а не тотальную ядерную войну.

То есть формулировка «ИИ применял ядерное оружие в 95% случаев» — упрощение. В исследовании это описывается как nuclear signalling и тактическая эскалация, а не всегда полноценный удар.

---

4. Неподтвержденные или спорные моменты

«Министр войны США»

Формально такой должности нет.

Официальный титул — Secretary of Defense.

---

«ультиматум о снятии всех ограничений»

Это интерпретация, а не точная цитата.

Официальная позиция Пентагона:

доступ для законных применений

спор о контрактных ограничениях.

---

«ИИ склонен к эскалации из-за забывчивости»

В исследовании это сформулировано иначе.

Проблема связана с:

стратегической логикой моделей

эскалационными теориями

моделированием сигналов силы.

Термин «забывчивость» — журналистская интерпретация.

---

5. Итоговая оценка точности текста

Компонент Точность

Конфликт Пентагон — Anthropic ✔ подтвержден
Угроза санкций / blacklist ✔ подтвержден
Дедлайн / ультиматум ✔ частично
Контракт $200 млн ✔ подтвержден
Исследование King's College ✔ подтверждено
«95% применяли ядерное оружие» ⚠ упрощение
Формулировки о политике Пентагона ⚠ частично интерпретация

---

6. Общий вывод

Текст в целом основан на реальных событиях, но содержит несколько журналистских усилений:

1. Ультиматум подан драматичнее, чем в источниках.

2. Ядерные выводы исследования немного упрощены.

3. Позиция Пентагона представлена менее нейтрально.

В остальном фактическая канва соответствует происходящему.

---

Если хочешь, могу сделать ещё:

OSINT-разбор происхождения этой новости (кто первым опубликовал, не фейк ли).

геополитику конфликта AI-компаний и Пентагона — там сейчас начинается очень серьёзная борьба.

Ниже — подборка источников по упомянутым событиям и исследованиям.

---

Источники

1. United States Department of Defense и конфликт с Anthropic
theguardian.com/us-news/2026/f

2. Давление на компанию и возможное применение Defense Production Act
foxnews.com/politics/pentagon-

3. Обсуждение расторжения контрактов и признания риска для цепочек поставок
barrons.com/articles/trump-fed

4. Дедлайн и позиция Пентагона
washingtonpost.com/technology/

5. Исследование по эскалации ИИ в кризисных симуляциях — King's College London
kcl.ac.uk/news/artificial-inte

---

Если нужно, могу сделать расширенную библиографию (20–30 источников) для аналитической публикации.

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.