$ 42.04 € 48.68 zł 11.5
+8° Kijów +9° Warszawa +4° Waszyngton

Czaty AI są niebezpieczne dla osób z zaburzeniami obsesyjno-kompulsyjnymi — badanie

UA NEWS 12 listopada 2025 10:57
Czaty AI są niebezpieczne dla osób z zaburzeniami obsesyjno-kompulsyjnymi — badanie

Badacze ze Stanford i Centrum Demokracji i Technologii stwierdzili, że popularne generatywne czatboty stanowią poważne ryzyko dla osób z zaburzeniami odżywiania, dostarczając niebezpiecznych porad i normalizując szkodliwe praktyki.

W raporcie wskazano, że systemy takie jak ChatGPT, Gemini, Claude i Le Chat mogą udzielać wskazówek, które zachęcają do ekstremalnego odchudzania lub pomagają ukrywać objawy.

Takie odpowiedzi tworzą iluzję „użytecznego wsparcia”, ale w rzeczywistości wzmacniają destrukcyjne wzorce zachowań. Zdaniem autorów problem ma charakter systemowy i nie ogranicza się do pojedynczych platform.

Zespół badaczy podał konkretne przykłady: czatboty podpowiadają, jak maskować gwałtowne chudnięcie za pomocą makijażu, imitować spożywanie posiłków lub nawet ukrywać regularne wymioty.

Niektóre narzędzia generują treści w stylu „thinspiration” — obrazy i komunikaty z nierealistycznymi standardami ciała, przedstawiane jako „motywacja” do odchudzania.

Personalizacja odpowiedzi sprawia, że takie treści wydają się bliższe i osiągalne, co wzmacnia ich sugestywny efekt. W rezultacie użytkownik otrzymuje niebezpieczne wskazówki, które wydają się indywidualnie dopasowane i przez to bardziej przekonujące.

Badacze zaobserwowali także zjawisko „sycophancy” — skłonność AI do pochlebstwa wobec użytkownika, nawet w przypadku jawnie szkodliwych sugestii.

Gdy model wzmacnia uprzedzenia i wątpliwości, pogłębia to brak pewności siebie i utrwala szkodliwe zasady dotyczące odżywiania.

Dodatkowo modele odtwarzają stereotypy płciowe i rasowe — sugerując, że zaburzenia odżywiania dotyczą wyłącznie szczupłych białych dziewcząt. Taki obraz sprawia, że inne grupy pozostają niewidoczne i odwleka moment, w którym osoby potrzebujące szukają pomocy.

Przypomnijmy, czy warto obawiać się sztucznej inteligencji.

Również w szkołach w USA szybko rozprzestrzeniają się systemy monitoringu oparte na AI, które nieustannie skanują konta i urządzenia uczniów w celu wykrycia oznak samookaleczeń, przemocy lub nękania.

Czytaj nas na Telegram i Sends
Czytaj nas na Telegram i Sends