$ 44.04 € 51.07 zł 12
+14° Київ +18° Варшава +21° Вашингтон

У Китаї попередили про ризик «сценарію Термінатора» через використання ШІ у війні

UA NEWS 11 Березня 2026 15:33
У Китаї попередили про ризик «сценарію Термінатора» через використання ШІ у війні

У Міністерстві оборони Китаю заявили, що необмежене застосування технологій штучного інтелекту у військових цілях може призвести до втрати контролю над такими системами та реалізації «катастрофічного сценарію» на кшталт фільму «Термінатор».

Про це під час брифінгу сказав речник оборонного відомства КНР Цзян Бінь.

За його словами, використання алгоритмів, які можуть визначати, «хто має жити, а хто померти», розмиває етичні норми ведення війни та створює серйозні ризики.

«Необмежене застосування ШІ у військових цілях… і те, що алгоритмам дозволено вибирати, хто має жити, а хто померти, може призвести до втрати контролю над технологіями, аж до втілення катастрофічного сценарію американського фільму “Термінатор”», — заявив Цзян.

Так він прокоментував повідомлення ЗМІ про використання американськими військовими моделей штучного інтелекту для вибору цілей під час операцій в Ірані.

У Пекіні наголосили, що виступають проти використання нових технологій, зокрема ШІ, для досягнення військової переваги та завдання шкоди суверенітету інших держав.

Китай також заявив про готовність співпрацювати з іншими країнами для створення глобальної системи управління штучним інтелектом під егідою ООН.

Водночас американські розвідувальні служби вважають, що Китай сам активно інтегрує технології ШІ у різні системи озброєння. Саме через це адміністрація попереднього президента США Джо Байдена запровадила обмеження на постачання Китаю передових американських чипів із підтримкою ШІ.

Збройні сили США офіційно підтвердили активне застосування алгоритмів штучного інтелекту для ідентифікації цілей під час масштабних авіаударів на Близькому Сході.

Вчені Королівського коледжу Лондона провели симуляцію геополітичних конфліктів, де замість держав виступали штучні нейронні мережі від провідних компаній, зокрема OpenAI, Anthropic та Google. У 95% випадків ці ІІ-системи відмовлялися йти на поступки і використовували ядерну зброю як єдиний шлях досягнення своїх цілей, що підкреслює потенційний ризик неконтрольованого застосування таких технологій.

 
 

Читай нас у Telegram та Sends