Пентагон боїться «AI-психозу»: технології можуть самостійно приймати рішення про смерть — Politico

Штучний інтелект швидко змінює уявлення про національну безпеку США. Як пише Politico, у Пентагоні все частіше говорять про використання великих мовних моделей для прийняття стратегічних рішень у конфліктах та управління автономними бойовими системами. Водночас експерти застерігають, що така технологія може призвести до фатальних помилок, коли машини самостійно визначатимуть цілі й застосовуватимуть силу.
Джерело — Politico
Колишні посадовці Міністерства оборони попереджають про ризики «AI-психозу» — коли система через помилкові алгоритми або перенасичення даними може вийти з-під контролю. Вони також зазначають, що поточні публічні моделі, як-от ChatGPT, мають вбудовані обмеження, які роблять їх непридатними для військового використання, але водночас військові шукають способи створення власних спеціалізованих рішень.
Проблема ускладнюється тим, що навіть добре налаштований штучний інтелект може відтворювати людські когнітивні упередження, схильність до ескалації та агресивних дій. Тому експерти наголошують: перш ніж довіряти AI доступ до зброї, армія має розробити власні системи безпеки та етичні стандарти для уникнення катастрофічних наслідків.
