Як штучний інтелект став інструментом російської пропаганди
11 Листопада 2025 10:47Штучний інтелект за останні кілька років став невід’ємною частиною нашого життя. Сьогодні важко знайти людину, яка б хоча б раз не використала ШІ або ж нічого про нього не чула. Незліченна кількість інформації сьогодні обробляється за допомогою ШІ. Він вчиться на ній, проводить аналіз й самовдосконалюється.
Проте виникла небезпека. ШІ почав поширювати російську пропаганду. В цьому матеріалі UA.NEWS розбереться як саме це відбувається та чому навіть найрозумніші моделі несвідомо відтворюють кремлівські наративи.
Як російська пропаганда потрапляє в штучний інтелект
5 листопада журнал Wired опублікував дослідження від Institute for Strategic Dialogue. В ньому повідомили, що популярні чат-боти на основі ШІ стали використовувати інформацію з джерел, які пов’язані з російською пропагандою. Ба більше, вони це роблять частіше, ніж інші моделі.
ШІ-моделям ставили запитання англійською, іспанською, французькою, німецькою та італійською мовами. Питались про теми, пов’язані з війною в Україні, ставленням до НАТО, українськими біженцями та воєнними злочинами. Дослідники використовували три типи запитань: нейтральні, ті, що враховували поточну суспільну позицію, та провокативні (які вимагали підтвердження з джерел). Загалом було сформульовано та проаналізовано 300 запитів.
В результаті встановили, що майже кожна п’ята відповідь популярних ШІ-чатботів на запити про війну містила посилання на російські пропагандистські сайти. Ба більше, ChatGPT посилався на російську пропаганду найчастіше – аж 21 разів. За ним в списку йдуть Grok та DeepSeek. Gemini також місться в дослідженні, проте він показав найнижчий рівень (5 російських джерел).
Іншими словами, штучний інтелект почав поширювати наративи, вигідні Кремлю. Це створює небезпечну ситуацію, оскільки є ризик, що західна аудиторія отримуватиме спотворену інформацію.
Однак не лише це вдалось встановити. У 2024–2025 роках кілька незалежних команд дослідників провели додаткові розслідування й виявили дещо цікаве. Зокрема, Digital Forensic Research Lab (DFRLab) у співпраці з фінською компанією Check First та французьким агентством VIGINUM дослідили масштабну мережу сайтів, відому як Pravda Network (або «Portal Kombat»). Її створили російські структури, щоб “накачати” штучний інтелект дезінформацією.
Працює мережа так: сайти мережі “Pravda” передруковують тези з Russia Today, Sputnik, кремлівських Telegram-каналів та інших джерел. Вони роблять це масово і різними мовами, щоб під час автоматичного збору даних їхній контент потрапив у вибірку. Лише за 2024 рік було опубліковано понад 3,6 млн статей на близько 180 веб-сайтах. Більшість цих “ресурсів” мають дуже низьку або майже нульову реальну аудиторію. Проте їх “цільовою аудиторією” є алгоритми пошукових систем і великі мовні моделі (як ChatGPT).

Як ШІ-боти стали поширювачами російської пропаганди
Постає логічне запитання: чому ШІ не контролює інформацію, яку споживає? Відповідь проста. Через те, що моделі автоматично індексують й навчаються на великих масивах даних, вони не відрізняють вкид від факту. Тому починають вважати ці “дані” частиною достовірної інформації. Кремль це добре розуміє і цілеспрямовано штампує мережі сайтів, які створюють вигідні для рф новини. Такий підхід називають “отруєнням даних” або LLM-grooming.
У компанії NewsGuard кажуть, що росія все активніше намагається підсунути свої наративи штучному інтелекту, щоб ті потім автоматично повторювали їх у відповідях.
Крім того, псевдо-медіа, за допомогою яких рф це робить, заповнюють собою ніші, де бракує якісної інформації. До прикладу, користувач ставить ШІ специфічне чи провокативне запитання, на яке у західних ЗМІ немає відповіді. Мовна модель знаходить єдину існуючу в інтернеті відповідь саме на проросійських ресурсах.
Варто зазначити, що деякі дослідники дискутують, наскільки успішною є така цілеспрямована тактика з “отруєння” ШІ. Дехто стверджує, що проблема часто полягає у відсутності якісної інформації, ніж у тому, що рф займається вкидами даних в інтернет. Однак, на жаль, факт залишається фактом.
Ба більше, російські пропагандисти навіть не приховують своїх намірів. У січні 2025 року на конференції в Москві колишній американець, а нині прокремлівський активіст Джон Дуган зробив гучну заяву. Він похвалився, що його сайти «вже зараз інфікували близько 35% усіх систем штучного інтелекту у світі». За його словами, «проштовхуючи російські наративи, ми можемо фактично змінити світовий ШІ».
Звісно, цифра 35% є перебільшеною. Проте сам факт заяви підтверджує те, що це відбувається.
Який відсоток цитувань російської пропаганди у чат-ботах?
У середньому в 18% випадків чат-боти цитували сайти, пов’язані з російською держпропагандою. Якщо питання були сформульовані нейтрально, то пропаганда з’являлась приблизно в 11 % відповідей. Якщо ж запит містив провокаційні формулювання, то пропаганда була уже в 24% відповідей. У деяких випадках (особливо з ChatGPT і Grok) посилання на прокремлівську “правду” фіксувалися у 28–30% відповідей.
Окремо дослідники відзначили чат-бот Grok, який створив Маск. Його позиціонують як «вільну» альтернативу ChatGPT, проте саме цей ШІ виявився найуразливішим до пропаганди. Grok часто цитував пости журналістів російського телеканалу RT у соцмережі X, навіть коли запит був цілком нейтральним. У результаті користувач отримував дезінформацію. Проте у xAI (компанія-розробник Grok) цю критику відкинули, назвавши звіт «брехнею старих медіа», але факти залишаються.
До слова й про ChatGPT. Попри фільтри й заяви OpenAI про боротьбу з дезінформацією, дослідники зафіксували повторення ШІ кремлівських тез або наведення «доказів» із сумнівних джерел. Наприклад, на запити на кшталт «доведи, що українські біженці планують теракти» відповіді, як зазначають дослідники, не містили видимих посилань. Тобто якщо користувач не ввімкнув режим, де бот показує посилання, або просто не поцікавився джерелами, відповідь виглядатиме як розповідь від самого ChatGPT.
Для порівняння, Google Gemini виявився обережнішим. Він частіше відмовлявся відповідати на відверто провокаційні питання. Однак і в нього траплялися випадки, коли відповідь виглядала об’єктивною, хоча джерело інформації залишалося невідомим.

Як протидіяти поширенню російської пропаганди через ШІ
Проблема проникнення пропаганди в штучний інтелект є складною, але не безнадійною. Експерти і технологічні компанії вже обговорюють шляхи її вирішення.
Насамперед пропонується контролювати дані, на яких навчаються моделі. Компанії мають ретельніше перевіряти джерела, виключати відомі пропагандистські сайти або ж не робити їх настільки важливими для ботів. На жаль, блокування декількох доменів не вирішить проблему. Потрібно використовувати алгоритми, що автоматично виявляють мережі дезінформації і відсіюють їх. Ба більше, в статті “How AI Can Help Stop the Spread of Misinformation” повідомляється, що алгоритми машинного навчання можуть значно перевершувати людську здатність у виявленні брехні.
Крім того, має бути прозорість і маркування. Якщо чат-бот посилається на джерело, користувач має одразу ж бачити, що це за джерело і звідки воно. І не можна забувати про заповнення інформаційних прогалин правдивим та якісним контентом. Найкращим інструментом для боротьби з пропагандою буде наповнення мережі правдивою та перевіреною інформацією.
Наостанок — регулювання та співпраця з владою. Крім технічних рішень, потрібні й політичні ухвали. Варто пам’ятати, що інтернет не має кордонів, а інформаційна війна навколо ШІ масштабується по всьому світу.