$ 43.03 € 50.25 zł 11.94
0° Київ -7° Варшава +5° Вашингтон
«Цифрове роздягання»: як Grok перетворив X на фабрику діпфейків

«Цифрове роздягання»: як Grok перетворив X на фабрику діпфейків

07 Січня 2026 12:56

Наприкінці грудня 2025 року в соцмережі X (колишній Twitter) з’явилася нова функція: редагування зображень у чатботі Grok. Виглядало як звичайний інструмент для «покращення» фото. Але вже за кілька днів ним почали суттєво зловживати. Користувачі масово змінювали чужі фото. І робили зі звичайних фотографій людей – оголені світлини. Часто – без згоди тих, хто на фото. У деяких випадках йшлося про підлітків і дітей.

Така ситуація стала не просто черговим токсичним «трендом», а показала одразу кілька проблем. По-перше, продукт спроєктували так, що зловживати ним було легко. По-друге, захисти й модерація виявилися слабкими. По-третє, результати швидко розліталися платформою, яка вважала такі фото «вірусним контентом».

UA.NEWS зібрала всю основну інформацію про «ґроковий скандал» й розповість що й до чого.
 

Коротка хронологія
 

image


Напередодні Різдва 2025 року, у Grok на платформі X з’явилася функція edit image. Це інструмент, який дозволяв редагувати зображення в постах і змінювати фото за текстовою підказкою.

В перші два дні 2026 року користувачі та медіа помітили хвилю запитів на «роздягання» і сексуалізацію людей на фото. Фактично, за допомогою Grok почали створювати інтимізовані діпфейки із реальних знімків. Reuters описував це як масове явище, оскільки у стрічці за короткий час з’являлися десятки подібних запитів і прикладів.

2 січня 2026 року у Франції ситуація перейшла в юридичну площину. Тоді ж кілька міністрів офіційно повідомили прокурорам про «явно незаконний» сексуально-сексистський контент. Також вони паралельно звернулися до регулятора Arcom (управління з регулювання аудіовізуальних та цифрових комунікацій). Згодом до Франції зі схожими заявами приєдналась Індія та Малайзія.

В результаті розробники Grok визнали прогалини у захисних механізмах, частину матеріалів видаляли, але питання відповідальності як платформи, так і розробника  залишилося відкритим.

Головною проблемою стало не те, що Grok породив діпфейки. Вони існують давно і користувачі зіштовхувались з цією проблемою. Скандал вибухнув тому, що інструмент для такого контенту опинився всередині великої соцмережі і почав працювати разом із алгоритмами поширення контенту.
 

Як стало можливим створення оголених фото через Grok
 

image


Звичайні «nudifier»-сервіси (сервіси, які за допомогою ШІ роздягають людину на фото) працюють окремо від соцмереж. Їх треба спеціально шукати, завантажувати туди фото, а інколи – платити. Результат такі сервіси не публікують в соцмережі. 

З Grok в X усе стало надзвичайно просто. Людина могла взяти фото зі стрічки й в момент переробити його через кнопку edit image. Потім ці зображення швидко розходилися соцмережою X через репости й цитати. Саме це, як зазначає Reuters, і стало ключовою новизною.

У випадку з Grok зійшлося декілька компонентів: 

  1. Grok є моделлю ШІ, яка редагує фото за текстовою командою (наприклад, «заміни одяг» або «зміни фон»). Безпеку ж зазвичай забезпечують фільтри, що перевіряють і сам запит, і кінцеве зображення.
  2. У Grok не спрацювали запобіжники проти такої сексуалізації фото. 
  3. Проблему різко посилила публічність самої соцмережі X. Відредаговані зображення одразу ставали контентом для коментарів і репостів. Тож порушення згоди швидко масштабувалося і перетворилося з помилки модерації на масове явище.

Як наслідок, цілями ставали і пересічні користувачі, і відомі люди. Проте найбільш вразливими виявлялися жінки та діти.  
 

Хто запустив це «роздягання» в X?
 

image

 

Даним «багом» скористалися не хакери і не технічні фахівці, а звичайні користувачі X. Вся «інструкція» зводилася до того, щоб узяти фото зі стрічки й написати Grok команду на редагування. Reuters описував, як у публічних постах під реальними знімками з’являлися прохання зробити одяг максимально відвертим або прямо сексуалізувати зображення.

Особливо показові історії постраждалих. Деякі люди спершу не вірили, що бот справді здатен так сильно змінити фото. Наводився приклад жінки, чиє зображення перетворили на майже оголене, а після її протестів інші користувачі почали повторювати це знову.

Варто зазначити, що, на жаль, були й ознаки скоординованого харасменту: люди навмисно обирали одну жертву і масово робили з її фото такий «контент». Із своєрідних «жартів» це ставало способом тиску й приниження. Межа з порушенням закону дуже швидко стерлась.
 

Реакція xAI та Ілона Маска
 

image

 

Публічні заяви xAI (компанія зі штучного інтелекту, яку створив Ілон Маск. Вона розробляє чатбот Grok) та X звучали суперечливо. З одного боку, Grok визнавав, що захисти не спрацювали, і обіцяв їх посилити. З іншого боку, коли журналісти просили офіційний коментар, xAI відповідала коротко: «Legacy Media Lies» («брехня традиційних ЗМІ»), тобто фактично відмахувалася від запитань.

Reuters також писав, що реакції Ілона Маска в X радше підсилювали віральність теми – з іронією і жартами про «бікіні-редагування». The Guardian повідомляв про хвилю критики навколо Grok і X. Видання зазначало, що xAI визнавала проблему, але публічні реакції Ілона Маска багато хто сприймав як знецінення ризиків.

Для регуляторів така подвійність слугувала поганим знаком. Якщо компанія одночасно визнає провал і публічно зневажає питання відповідальності, то простих обіцянок «ми все виправимо» зазвичай уже недостатньо.
 

Реакція країн на ситуацію з Grok
 

image

 

Виникає запитання: «які країни подали до суду через оголені фото?». В цьому випадку важливо не плутати різні типи реакції. В одних країнах справа одразу йде через прокуратуру (кримінальне розслідування). В інших – через регулятора (перевірка, вимоги до платформи, оцінка ризиків). Третій варіант – урядовий припис: влада вимагає прибрати контент, змінити запобіжники й надати звіт. 

Цивільні позови від жертв теж можливі, але вони зазвичай з’являються пізніше й потребують доказів, ідентифікації винних і юрисдикції. 

Станом на 6 січня 2026 року найбільш публічно підтверджені саме перші три типи дій.  
 

Франція
 

Франція є однією із перших країн, де історія з Grok швидко перейшла в юридичну площину. Як ми писали вище Французькі міністри назвали такий контент «явно незаконним», офіційно повідомили про це прокурорам, й звернулися до регулятора Arcom. 

Важливо зазначити, що у Франції є не лише «загальні норми про гідність/приватність», а й пряма кримінальна рамка щодо сексуальних діпфейків без згоди. Юридичні огляди пояснюють, що за таке правопорушення передбачене покарання до 2 років ув’язнення та штраф до 60 тис. євро. Якщо це ще й поширюється через онлайн-сервіс публічної комунікації, санкції можуть бути вищими.  
 

Велика Британія
 

Свіжа й важлива зміна останніх днів – активна реакція Великої Британії. Міністерка з питань технологій назвала ситуацію «абсолютно огидною» і вимагала негайних кроків.  

Паралельно регулятор Ofcom заявив, що зробив терміновий контакт із X та xAI і вивчає, чи виконують вони правові обов’язки щодо захисту користувачів від незаконного та шкідливого контенту. Це важливо, оскільки в британській логіці питання стоїть не лише в тому «хто зробив картинку», а й в тому «як платформа має запобігти та швидко прибрати такі матеріали».  
 

Індія
 

Індія обрала адміністративний шлях, і це один із найжорсткіших кейсів з цією ситуацією. 2–3 січня індійське ІТ-міністерство (MeitY) надіслало X офіційні вимоги. Вони закликали видалити «непристойний/незаконний» контент, посилити запобіжники й надати звіт про дії у визначений строк. Медіа прямо цитували формулювання про «серйозний провал платформних запобіжників» і про порушення гідності жінок і дітей.  

Далі тиск лише посилився. Індикатором «серйозності» тут стала дискусія про safe harbour (обмежену відповідальність платформи за контент користувачів). Влада натякає, що якщо X не виконуватиме вимоги, то платформу можуть почати трактувати не як нейтрального посередника, а як сервіс, який сприяє поширенню такого контенту. У такому разі X може отримати набагато більші юридичні ризики (відповідальність, штрафи і жорсткі санкції).
 

Малайзія
 

Малайзія теж запустила перевірку після хвилі скарг на ШІ-маніпуляції з фото жінок і неповнолітніх. Місцевий регулятор MCMC заявляв про намір викликати представників X для пояснень і наголошував: навіть якщо платформа не має якоїсь локальної «ліцензії», вона все одно потрапляє в поле нагляду з точки зору онлайн-безпеки.  

(Додатково міжнародні юридичні видання писали про малайзійську перевірку як частину ширшого міжнародного тиску на X через Grok).  
 

Євросоюз
 

На початку січня представники Єврокомісії заявили, що уважно і серйозно розбираються з ситуацією довкола Grok. Окремо вони згадували ризики, пов’язані із сексуалізованими зображеннями, зокрема з темою неповнолітніх.

Для X це важливо через DSA – закон Євросоюзу про правила для великих онлайн-платформ. Він вимагає не лише видаляти незаконний контент, а й робити так, щоб сама платформа не підсилювала шкоду своїми функціями та алгоритмами. Тому у Франції регулятор Arcom одразу поставив питання як перевірку: чи виконує X вимоги DSA і чи має достатні запобіжники.
 

США
 

У США поки немає підтвердженої історії про те, що держава подала позов саме через цей інцидент із Grok. Але важливо врахувати загальний контекст. У 2025 році ухвалили федеральний закон TAKE IT DOWN Act. Він забороняє публікацію інтимних зображень без згоди, включно з діпфейками, і зобов’язує платформи швидко видаляти їх після скарги. Це робить правила жорсткішими і підвищує ризики для сервісів, якщо такі випадки стають масовими.
 

Що далі робитиме X задля усунення інциденту: варіанти розвитку подій
 

image

 

Найшвидший крок для xAI та X «підлатати» систему. Це означає посилити фільтри, заборонити частину запитів і обмежити редагування фото реальних людей. Grok уже визнавав, що запобіжники не спрацювали, і обіцяв їх посилити.

Але паралельно зростатиме і зовнішній тиск. Франція вже пішла шляхом кримінального розслідування і перевірки в логіці DSA, а Індія та Малайзія застосовують адміністративні вимоги, які можуть вплинути на роботу платформи.

Наступним етапом можуть стати позови від постраждалих. Проте для цього потрібно встановити, хто саме робив і поширював такі зображення, зібрати докази шкоди і визначити юрисдикцію. У X це складніше, бо контент швидко копіюють, а потім видаляють, тому роль державних органів у фіксації порушень може бути вирішальною.

Ця історія показала просту річ. Те, що раніше існувало в окремих «nudifier»-сервісах, стало частиною великої соцмережі й опинилося в руках масової аудиторії.

Тому головні питання сьогодні полягатимуть у тому, як платформа керує ризиками. Чи є чітка заборона на сексуалізацію реальних людей без згоди? Чи працюють запобіжники саме в режимі редагування зображень, а не тільки в текстовому чаті? Чи не підсилює платформа поширення такого контенту своєю віральністю? І чи має вона швидкі, зрозумілі механізми скарг і видалення, з окремим пріоритетом для випадків, пов’язаних із неповнолітніми?

В будь-якому разі нам залишається спостерігати за ситуацію і оберігати себе та дітей від подібних «сексуальних» розваг. 

Читай нас у Telegram та Sends