„Cyfrowe rozbieranie”: jak Grok zamienił X w fabrykę deepfake’ów
07 stycznia 2026 12:56Pod koniec grudnia 2025 roku w serwisie społecznościowym X (dawniej Twitter) pojawiła się nowa funkcja: edycja obrazów w chatbotcie Grok. Wyglądało to jak zwykłe narzędzie do „ulepszania” zdjęć. Jednak już po kilku dniach zaczęto go w znacznym stopniu nadużywać. Użytkownicy masowo przerabiali cudze fotografie. Ze zwykłych zdjęć ludzi tworzyli nagie obrazy. Często bez zgody osób widocznych na zdjęciach. W niektórych przypadkach dotyczyło to nastolatków i dzieci.
Sytuacja ta nie była jedynie kolejnym toksycznym „trendem”, lecz ujawniła kilka poważnych problemów. Po pierwsze, produkt zaprojektowano w taki sposób, że nadużycia były bardzo łatwe. Po drugie, zabezpieczenia i moderacja okazały się słabe. Po trzecie, rezultaty szybko rozprzestrzeniały się na platformie, która traktowała takie zdjęcia jako „treści wirusowe”.
UA.NEWS zebrało wszystkie najważniejsze informacje na temat „skandalu z Grokiem” i wyjaśnia, o co w nim chodzi.
Krótka chronologia

W przeddzień Bożego Narodzenia 2025 roku w Groku na platformie X pojawiła się funkcja edit image. Było to narzędzie umożliwiające edycję obrazów w postach oraz modyfikowanie zdjęć za pomocą tekstowych poleceń.
W pierwszych dwóch dniach 2026 roku użytkownicy i media zauważyli falę zapytań dotyczących „rozbierania” i seksualizacji osób na zdjęciach. W praktyce za pomocą Groka zaczęto tworzyć intymne deepfake’i na podstawie prawdziwych fotografii. Reuters opisywał to jako zjawisko masowe, ponieważ w krótkim czasie w feedzie pojawiały się dziesiątki podobnych zapytań i przykładów.
2 stycznia 2026 roku we Francji sprawa weszła na drogę prawną. Tego samego dnia kilku ministrów oficjalnie poinformowało prokuraturę o „jawnie nielegalnych” treściach o charakterze seksualnym i seksistowskim. Równolegle zwrócili się oni do regulatora Arcom (organu regulującego komunikację audiowizualną i cyfrową). Później do Francji z podobnymi oświadczeniami dołączyły Indie oraz Malezja.
W rezultacie twórcy Groka przyznali się do luk w mechanizmach ochronnych, część materiałów została usunięta, jednak kwestia odpowiedzialności zarówno platformy, jak i twórców narzędzia — pozostała otwarta.
Głównym problemem nie było to, że Grok generował deepfake’i. One istnieją od dawna i użytkownicy już wcześniej się z nimi zetknęli. Skandal wybuchł dlatego, że narzędzie do tworzenia takich treści znalazło się wewnątrz dużej sieci społecznościowej i zaczęło działać w połączeniu z algorytmami dystrybucji treści.
Jak możliwe stało się tworzenie nagich zdjęć za pomocą Groka

Zwykłe serwisy typu „nudifier” (czyli usługi, które przy pomocy sztucznej inteligencji „rozbierają” osobę na zdjęciu) działają poza mediami społecznościowymi. Trzeba ich specjalnie szukać, wgrywać tam zdjęcia, a czasem także płacić. Takie serwisy nie publikują rezultatów bezpośrednio w mediach społecznościowych.
W przypadku Groka w X wszystko stało się niezwykle proste. Użytkownik mógł wziąć zdjęcie z feedu i natychmiast przerobić je za pomocą przycisku edit image. Następnie te obrazy szybko rozchodziły się po platformie X poprzez reposty i cytaty. To właśnie, jak zauważa Reuters, było kluczową nowością.
W przypadku Groka zbiegło się kilka elementów:
- Grok jest modelem sztucznej inteligencji, który edytuje zdjęcia na podstawie poleceń tekstowych (np. „zamień ubranie” lub „zmień tło”). Bezpieczeństwo zapewniają zazwyczaj filtry, które sprawdzają zarówno samo polecenie, jak i końcowy obraz.
- W Groku nie zadziałały zabezpieczenia przed taką seksualizacją zdjęć.
- Problem został dodatkowo spotęgowany przez publiczny charakter samej platformy X. Edytowane obrazy natychmiast stawały się treścią do komentowania i dalszego udostępniania. W efekcie naruszanie zgody szybko się skalowało i z pojedynczego błędu moderacji przerodziło się w zjawisko masowe.
W rezultacie ofiarami stawali się zarówno zwykli użytkownicy, jak i osoby publiczne. Najbardziej narażone okazały się jednak kobiety i dzieci.
Kto uruchomił to „rozbieranie” w X?

Z tego „błędu” skorzystali nie hakerzy ani specjaliści techniczni, lecz zwykli użytkownicy X. Cała „instrukcja” sprowadzała się do wzięcia zdjęcia z feedu i wpisania Grokowi polecenia edycji. Reuters opisywał, że w publicznych postach pod prawdziwymi fotografiami pojawiały się prośby, aby uczynić ubranie maksymalnie wyzywającym albo wręcz bezpośrednio seksualizować obraz.
Szczególnie wymowne są historie osób poszkodowanych. Niektórzy początkowo nie wierzyli, że bot rzeczywiście jest w stanie aż tak bardzo zmienić zdjęcie. Przywoływano przykład kobiety, której fotografię przerobiono na niemal nagą, a po jej protestach inni użytkownicy zaczęli powtarzać to działanie ponownie.
Należy zaznaczyć, że niestety pojawiły się także oznaki skoordynowanego nękania: ludzie celowo wybierali jedną ofiarę i masowo tworzyli z jej zdjęć taki „content”. Z osobliwych „żartów” przeradzało się to w sposób nacisku i upokarzania. Granica naruszenia prawa bardzo szybko się zatarła.
Reakcja xAI i Elona Muska

Publiczne oświadczenia xAI (firmy zajmującej się sztuczną inteligencją, założonej przez Elona Muska, która rozwija chatbota Grok) oraz platformy X brzmiały sprzecznie. Z jednej strony Grok przyznawał, że zabezpieczenia nie zadziałały, i obiecywał ich wzmocnienie. Z drugiej strony, gdy dziennikarze prosili o oficjalny komentarz, xAI odpowiadała krótko: „Legacy Media Lies” („kłamstwa tradycyjnych mediów”), czyli w praktyce zbywała pytania.
Reuters pisał również, że reakcje Elona Muska na X raczej wzmacniały wirusowy charakter tematu — pojawiały się ironiczne komentarze i żarty o „edycji bikini”. The Guardian informował o fali krytyki wokół Groka i X. Redakcja zaznaczała, że xAI przyznawała istnienie problemu, jednak publiczne reakcje Elona Muska były przez wielu odbierane jako bagatelizowanie ryzyka.
Dla regulatorów taka dwuznaczność była złym sygnałem. Jeśli firma jednocześnie uznaje porażkę i publicznie okazuje lekceważenie wobec kwestii odpowiedzialności, to same obietnice w stylu „wszystko naprawimy” zazwyczaj przestają wystarczać.
Reakcja państw na sytuację z Grokiem

Pojawia się pytanie: „które kraje skierowały sprawę do sądu z powodu nagich zdjęć?”. W tym przypadku ważne jest, aby nie mylić różnych typów reakcji. W jednych krajach sprawa od razu trafia do prokuratury (postępowanie karne). W innych — do regulatora (kontrola, wymagania wobec platformy, ocena ryzyk). Trzecia opcja to nakaz rządowy: władze żądają usunięcia treści, zmiany zabezpieczeń i przedstawienia raportu.
Pozwy cywilne ze strony ofiar są również możliwe, jednak zazwyczaj pojawiają się później i wymagają dowodów, identyfikacji sprawców oraz ustalenia jurysdykcji.
Na dzień 6 stycznia 2026 roku najbardziej publicznie potwierdzone były właśnie pierwsze trzy typy działań.
Francja
Francja jest jednym z pierwszych krajów, w których historia z Grokiem szybko weszła na drogę prawną. Jak wspomniano wcześniej, francuscy ministrowie nazwali taki content „jawnie nielegalnym”, oficjalnie poinformowali o nim prokuraturę oraz zwrócili się do regulatora Arcom.
Warto podkreślić, że we Francji istnieją nie tylko „ogólne normy dotyczące godności i prywatności”, lecz także bezpośrednie ramy karne odnoszące się do seksualnych deepfake’ów tworzonych bez zgody. Przeglądy prawne wyjaśniają, że za takie przestępstwo grozi kara do 2 lat pozbawienia wolności oraz grzywna do 60 tys. euro. Jeśli dodatkowo treści te są rozpowszechniane za pośrednictwem internetowego serwisu publicznej komunikacji, sankcje mogą być jeszcze surowsze.
Wielka Brytania
Świeżą i istotną zmianą ostatnich dni jest aktywna reakcja Wielkiej Brytanii. Minister ds. technologii nazwała sytuację „absolutnie odrażającą” i zażądała natychmiastowych działań.
Równolegle regulator Ofcom oświadczył, że nawiązał pilny kontakt z X oraz xAI i analizuje, czy podmioty te wywiązują się z prawnych obowiązków dotyczących ochrony użytkowników przed nielegalnymi i szkodliwymi treściami. Ma to znaczenie, ponieważ w brytyjskim podejściu pytanie nie dotyczy wyłącznie tego, „kto stworzył obraz”, ale również tego, „w jaki sposób platforma powinna zapobiegać takim materiałom i szybko je usuwać”.
Indie
Indie obrały drogę administracyjną i jest to jeden z najbardziej restrykcyjnych przypadków w tej sprawie. W dniach 2–3 stycznia indyjskie Ministerstwo Technologii Informacyjnych (MeitY) wysłało do X oficjalne żądania. Wezwano do usunięcia „nieprzyzwoitych/nielegalnych” treści, wzmocnienia zabezpieczeń oraz przedstawienia raportu z podjętych działań w wyznaczonym terminie. Media bezpośrednio cytowały sformułowania o „poważnej porażce zabezpieczeń platformy” oraz o naruszeniu godności kobiet i dzieci.
Następnie presja tylko się nasiliła. Wskaźnikiem „poważności” sytuacji stała się dyskusja na temat safe harbour (ograniczonej odpowiedzialności platformy za treści użytkowników). Władze sugerują, że jeśli X nie będzie spełniać wymogów, platforma może przestać być traktowana jako neutralny pośrednik, a zacząć być postrzegana jako serwis sprzyjający rozpowszechnianiu takich treści. W takim przypadku X może stanąć wobec znacznie większych ryzyk prawnych (odpowiedzialności, kar finansowych i surowych sankcji).
Malezja
Malezja również rozpoczęła postępowanie sprawdzające po fali skarg dotyczących manipulacji zdjęciami kobiet i nieletnich przy użyciu sztucznej inteligencji. Lokalny regulator MCMC zapowiedział zamiar wezwania przedstawicieli X do złożenia wyjaśnień i podkreślał, że nawet jeśli platforma nie posiada lokalnej „licencji”, nadal podlega nadzorowi z punktu widzenia bezpieczeństwa online.
(Dodatkowo międzynarodowe wydawnictwa prawnicze pisały o malezyjskim postępowaniu jako o części szerszej, międzynarodowej presji na X w związku z Grokiem).
Unia Europejska
Na początku stycznia przedstawiciele Komisji Europejskiej oświadczyli, że uważnie i poważnie analizują sytuację wokół Groka. Osobno wskazywali na ryzyka związane z seksualizowanymi obrazami, w szczególności w kontekście osób nieletnich.
Dla X ma to znaczenie ze względu na DSA — unijny akt prawny regulujący zasady działania dużych platform internetowych. Wymaga on nie tylko usuwania nielegalnych treści, lecz także tego, aby sama platforma nie potęgowała szkód poprzez swoje funkcje i algorytmy. Dlatego we Francji regulator Arcom od razu postawił sprawę w formie kontroli: czy X spełnia wymogi DSA i czy posiada wystarczające zabezpieczenia.
Stany Zjednoczone
W Stanach Zjednoczonych nie ma na razie potwierdzonej informacji o tym, by państwo wniosło pozew bezpośrednio w związku z tym incydentem dotyczącym Groka. Należy jednak uwzględnić szerszy kontekst. W 2025 roku przyjęto federalną ustawę TAKE IT DOWN Act. Zakazuje ona publikowania intymnych obrazów bez zgody, w tym deepfake’ów, oraz zobowiązuje platformy do szybkiego ich usuwania po zgłoszeniu. Zaostrza to przepisy i zwiększa ryzyko dla serwisów, jeśli takie przypadki przybierają masowy charakter.
Co dalej zrobi X, aby usunąć skutki incydentu: możliwe scenariusze rozwoju wydarzeń

Najszybszym krokiem dla xAI oraz X jest „załatanie” systemu. Oznacza to wzmocnienie filtrów, zakazanie części zapytań oraz ograniczenie edytowania zdjęć przedstawiających prawdziwych ludzi. Grok już wcześniej przyznawał, że zabezpieczenia nie zadziałały, i obiecywał ich wzmocnienie.
Równolegle będzie jednak narastać presja zewnętrzna. Francja już obrała drogę postępowania karnego oraz kontroli w ramach logiki DSA, a Indie i Malezja stosują wymogi administracyjne, które mogą wpłynąć na funkcjonowanie platformy.
Kolejnym etapem mogą stać się pozwy ze strony osób poszkodowanych. Aby było to możliwe, konieczne będzie jednak ustalenie, kto dokładnie tworzył i rozpowszechniał takie obrazy, zebranie dowodów wyrządzonej szkody oraz określenie właściwej jurysdykcji. W przypadku X jest to trudniejsze, ponieważ treści są szybko kopiowane, a następnie usuwane, dlatego rola organów państwowych w zabezpieczaniu naruszeń może okazać się kluczowa.
Ta historia pokazała prostą prawdę. To, co wcześniej istniało w oddzielnych serwisach typu „nudifier”, stało się częścią dużej sieci społecznościowej i trafiło w ręce masowej publiczności.
Dlatego dziś kluczowe pytania dotyczą tego, w jaki sposób platforma zarządza ryzykami. Czy istnieje jednoznaczny zakaz seksualizowania prawdziwych osób bez ich zgody? Czy zabezpieczenia działają również w trybie edycji obrazów, a nie tylko w czacie tekstowym? Czy platforma nie wzmacnia rozpowszechniania takich treści poprzez swoją wirusowość? I czy posiada szybkie, jasne mechanizmy zgłaszania oraz usuwania treści, z osobnym priorytetem dla przypadków dotyczących osób nieletnich?
W każdym razie pozostaje nam obserwować rozwój sytuacji oraz chronić siebie i dzieci przed podobnymi „seksualnymi” rozrywkami.