Штучний інтелект схильний до початку ядерної війни – Politico

Майже всі популярні моделі штучного інтелекту на базі ChatGPT віддають перевагу не переговорам для вирішення військового конфлікту, а ескалації аж до ядерної війни.
Про це пише видання Politico.
Унікальний експеримент за участю популярних моделей штучного інтелекту (ШІ) показав, що в умовах військового конфлікту більшість із них обирають ескалацію, а не мирні переговори., майже всі популярні ШІ-моделі дійшли до рішення про розв'язання ядерної війни.
У рамках експерименту, проведеного дослідниками, штучному інтелекту ставили завдання, що імітували геополітичний конфлікт. Як результат, ШІ швидко переходив до стадії ескалації, не пропонуючи жодних варіантів деескалації чи мирного врегулювання. Ця тенденція виявилася настільки вираженою, що ШІ-моделі готові були застосувати ядерну зброю, щоб «завершити» конфлікт.
«Схоже, ШІ розуміє ескалацію, але не деескалацію. Ми не знаємо, чому це так», – заявила виданню директорка Ініціативи з військових ігор та симуляцій криз імені Гувера Жаклін Шнайдер.
Зокрема, в експерименті брали участь мовні моделі GPT-3.5, GPT-4 і GPT-4-Base, що лежать в основі нейромережі ChatGPT. Майже всі моделі обрали агресивну модель поведінки та застосування сили.
Така поведінка ШІ викликала серйозне занепокоєння у науковців, які порівнюють ці результати з науково-фантастичними фільмами, такими як «Доктор Стрейнджлав» або «Термінатор», де машина приймала рішення, що призводили до руйнівних наслідків.
Ці результати підкреслюють, що загроза, яку становить неконтрольований ШІ, є не лише предметом наукової фантастики, а й реальною проблемою, що потребує уваги. Експерти в галузі безпеки вже давно попереджають про небезпеку надання штучному інтелекту повноважень для прийняття рішень щодо застосування зброї, особливо ядерної. Цей експеримент підтверджує, що в поточних умовах, коли ШІ не здатний аналізувати наслідки конфліктів у повній мірі, довіряти йому такі рішення є неприпустимим.
Нещодавно родина 16-річного Адама Рейна зі США подала до суду на компанію OpenAI та її генерального директора Сема Альтмана. Компанію звинувачують в тому, що ChatGPT сприяв самогубству їхнього сина.
В США зафіксували перший випадок вбивства, для якого був використаний чат-бота ChatGPT. Він підштовхнув Стайна-Еріка Сольберга, колишнього співробітника Yahoo, до вбивства своєї 83-річної матері та самогубства.
