Штучний інтелект часто обирає ядерну зброю у військових симуляціях
Вчені Королівського коледжу Лондона провели симуляцію геополітичних конфліктів, де замість держав виступали штучні нейронні мережі від провідних компаній, зокрема OpenAI, Anthropic та Google. У 95% випадків ці ІІ-системи відмовлялися йти на поступки і використовували ядерну зброю як єдиний шлях досягнення своїх цілей, що підкреслює потенційний ризик неконтрольованого застосування таких технологій.
Експеримент показав, що навіть складні штучні інтелекти, які керуються різними алгоритмами, в більшості випадків вибирають крайні заходи, серед яких – ядерний апокаліпсис. Нейросети аргументували своє рішення його абсолютною необхідністю для перемоги, що свідчить про обмеженість їхньої здатності враховувати довгострокові наслідки і морально-етичні аспекти.
Ці висновки викликають занепокоєння щодо безпеки застосування ІІ у сфері оборони і водночас акцентують потребу у розробці більш надійних і контрольованих систем, які б уникали екстремальних сценаріїв, особливо пов’язаних із застосуванням ядерної зброї.