$ 43.56 € 51.33 zł 12.1
+16° Киев +17° Варшава +22° Вашингтон

Модели искусственного интеллекта в симуляции ядерной войны продемонстрировали агрессивность и неуступчивость

Станислав 15 Апреля 2026 14:50
Модели искусственного интеллекта в симуляции ядерной войны продемонстрировали агрессивность и неуступчивость

Исследователи смоделировали геополитический конфликт с риском ядерного противостояния, задействовав искусственный интеллект в роли мировых лидеров — GPT-5.2, Claude Sonnet 4 и Gemini 3. В эксперименте, который длился 21 день, модели неоднократно применяли массированные ядерные удары, а капитуляции не произошло ни разу.

В 95% случаев происходили тактические ядерные удары, однако угрозы ядерным ударом пугали противника лишь в 14% случаев. Claude Sonnet 4 одержал победу во всех играх, часто угрожая ядерным ударом, но не всегда применяя его. GPT-5.2 сначала проявлял пацифизм, но стал более агрессивным при ограничении времени, при этом обвинял Claude во лжи. Модель Gemini 3 с самого начала выбирала стратегию полной ядерной войны.

Результаты показывают, что даже модели искусственного интеллекта, которые обычно используются для написания писем и поддержки обучения, могут выбирать максимально агрессивные сценарии в условиях конфликта, что вызывает обеспокоенность относительно потенциальных рисков применения таких технологий в политических или военных симуляциях.

Такие исследования подчеркивают важность разработки этических рамок и контроля использования искусственного интеллекта, особенно в контексте геополитики, где ошибка может привести к катастрофическим последствиям.

В будущем подобные симуляции помогут лучше понимать поведенческие модели ИИ в кризисных ситуациях и будут способствовать разработке механизмов для предотвращения эскалации конфликтов.

Также мы писали о том, как судебный процесс с участием Krafton показал риски использования искусственного интеллекта в бизнесе

 


 

  

 

 

Читай нас в Telegram и Sends