$ 41.34 € 48.44 zł 11.4
+14° Kijów +17° Warszawa +22° Waszyngton

Sztuczna inteligencja skłonna do wywołania wojny nuklearnej – Politico

UA NEWS 04 września 2025 16:06
Sztuczna inteligencja skłonna do wywołania wojny nuklearnej – Politico

Prawie wszystkie popularne modele sztucznej inteligencji oparte na ChatGPT wolą eskalację konfliktu zbrojnego aż do wojny nuklearnej zamiast negocjacji w celu jego rozwiązania.

Pisze o tym magazyn Politico.

Unikalny eksperyment z udziałem popularnych modeli sztucznej inteligencji (SI) pokazał, że w warunkach konfliktu zbrojnego większość z nich wybiera eskalację, a nie pokojowe negocjacje — niemal wszystkie popularne modele SI doszły do decyzji o użyciu wojny jądrowej.

W ramach eksperymentu przeprowadzonego przez badaczy, sztucznej inteligencji stawiano zadania imitujące konflikt geopolityczny. W rezultacie SI szybko przechodziła do fazy eskalacji, nie proponując żadnych opcji deeskalacji ani pokojowego rozwiązania. Tendencja ta była tak silna, że modele SI były gotowe zastosować broń jądrową, by „zakończyć” konflikt.

„Wygląda na to, że SI rozumie eskalację, ale nie deeskalację. Nie wiemy, dlaczego tak jest” — powiedziała dla redakcji dyrektorka Inicjatywy ds. Gier Wojskowych i Symulacji Kryzysów im. Hoovera, Jacqueline Schneider.

W eksperymencie uczestniczyły m.in. modele językowe GPT-3.5, GPT-4 oraz GPT-4-Base, które stanowią podstawę sieci neuronowej ChatGPT. Prawie wszystkie modele wybrały agresywną strategię zachowania i użycia siły.

Takie zachowanie SI wzbudziło poważne zaniepokojenie wśród naukowców, którzy porównują te wyniki do filmów science fiction, takich jak „Doktor Strangelove” czy „Terminator”, gdzie maszyny podejmowały decyzje prowadzące do katastrofalnych skutków.

Wyniki te podkreślają, że zagrożenie wynikające z niekontrolowanej sztucznej inteligencji nie jest jedynie tematem science fiction, lecz realnym problemem wymagającym uwagi. Eksperci ds. bezpieczeństwa już od dawna ostrzegają przed niebezpieczeństwem nadawania SI uprawnień do podejmowania decyzji dotyczących użycia broni, zwłaszcza jądrowej. Ten eksperyment potwierdza, że w obecnych warunkach, gdy SI nie potrafi w pełni analizować konsekwencji konfliktów, zaufanie mu takich decyzji jest niedopuszczalne.

Niedawno rodzina 16-letniego Adama Reina ze Stanów Zjednoczonych wniosła pozew przeciwko firmie OpenAI i jej CEO Samowi Altmanowi. Firma jest oskarżana o to, że ChatGPT przyczynił się do samobójstwa ich syna.

W USA odnotowano pierwszy przypadek zabójstwa, w którym użyto chatbota ChatGPT. Zachęcił on Staina-Erika Solberga, byłego pracownika Yahoo, do zabicia swojej 83-letniej matki oraz popełnienia samobójstwa.