ЗМІ: діпфейки з українкою використовувалися для просування інтересів рф

Невідомі створили тисячі оброблених штучним інтелектом відео з використанням обличчя і голосу справжньої людини.
Як передає ВВС, йдеться про українку Ольгу Лоїк, яка навчається в Університеті Пенсильванії, а її «клон» розповідав про дружбу з росією.
Сама Ольга дізналася про таку «промоцію» від свого імені випадково – хтось із знайомих побачив її обличчя на відео і надіслав їй. Дівчина вирішила з'ясувати, що відбувається, і знайшла десятки акаунтів під різними іменами, які використовували її обличчя та поширювали контент, який вона ніколи не створювала.
«Софія», «Наташа», «Ейпріл», «Стейсі» та решта діпфейки говорили діалектом китайської мови мандарин, який справжня Ольга не знає і ніколи не вивчала.
Одною з найпопулярніших була «Наташа». Акаунт мав понад 300 тис. підписників, прославляв росію та рекламував їжу.
ШІ-двійники Ольги почали з’являтися у 2023 році – незабаром після того, як справжня дівчина запустила канал YouTube (щоправда, він оновлюється не дуже регулярно).
Приблизно за місяць українка почала отримувати повідомлення від людей, які стверджували, що бачили, як вона говорить мандаринською мовою в китайських соціальних мережах.
На відповідний запит компанія HeyGen, яка нібито розробила інструмент, що використовується для створення подібностей ШІ, заявила, що з обличчям Ольги було створено понад 4 900 відео, проте зображення начебто вже заблокували для подальшого використання.
Представник компанії також заявив журналістам, що їхню систему зламали, і що вони оновили протоколи безпеки для запобігання зловживань.
Фахівці зауважують, що подібні інциденти є «дуже поширеним явищем у Китаї». До того ж. підозру викликає наратив про «дружбу Китаю та росії».
Раніш ми писали, що рф за допомогою штучного інтелекту поширює у Молдові фейкові відео, спрямовані проти президентки Маї Санду.
У квітні цього року американські медсестри влаштували протест проти використання ШІ в охороні здоров’я.

