Технологія deepfake: наскільки реальною є загроза для фінансових систем?

Технологія deepfake: наскільки реальною є загроза для фінансових систем?

Альона Шевцова
Автор
Альона Шевцова
UA.NEWS
Поділитись:

Технології розвиваються, роблячи життя людей простішим і комфортнішим, але водночас розвиваються й способи обману. Прогрес у сфері штучного інтелекту дозволяє використовувати алгоритми нових форм шахрайства. Зараз за допомогою сервісів та програм можна замінити обличчя кіноактора у фрагменті відео своїм або навіть оживити фотографію, зробивши її анімованою. Це загальнодоступні технології для розваги, але є й інша сторона медалі. Створення підроблених фото-, аудіо- і навіть відеоматеріалів, що не відрізняються від оригінальних у сукупності з необмеженими можливостями ЗМІ, викликають побоювання. Одночасно з цим існує загроза впливу на фінансові системи за допомогою нових технологій deepfake.

Deepfake (діпфейк) — це технологія, в основі якої лежать штучний інтелект і машинне навчання. Вона використовує знайдені зображення, аудіо- та відеофайли для створення схожого візуального та голосового зображення людини. Головна персона в діпфейк-відео може говорити та діяти, видаючи себе за іншу людину. Такі відео стають більш реалістичними з кожним роком. Наприклад, у соціальних мережах став популярним обліковий запис, де діпфейк Тома Круза грає в гольф і показує фокуси. Після того, як відео стало вірусним, воно привернуло широку увагу до технології, але також зробило акценти на можливі проблеми, пов’язані з фальсифікацією особистості. Сильна сторона технологій на основі штучного інтелекту в тому, що згодом вони збирають все більше даних і стають розумнішими. Варто згадати, як у 2019 році кіберзлочинці змогли підробити голос генерального директора британської енергетичної компанії та викрасти €220 000.

Існує безліч сценаріїв застосування діпфейк технологій — від кібервимагання до підробки урядових заяв. Але є й способи, які можуть зашкодити фінансовим системам. Серед найбільш поширених — вхід до особистих облікових записів на фінансових онлайн-сервісах, банківських аккаунтах, оформлення кредитів за допомогою ідентифікації з технологією заміни обличчя та голосу в реальному часі. З поширенням та покращенням штучного інтелекту, такий спосіб стає більш доступним для шахрайських дій у фінансових установах.

Шахрайство із новими обліковими записами. Зазвичай такий вид махінації доступний у додатках. Існує можливість використовувати вкрадені посвідчення особи для відкриття нових банківських рахунків за допомогою діпфейків та обходу технологій ідентифікації. Якщо зловмисники матимуть можливість створювати підроблені посвідчення особи — така атака може стати глобальною проблемою для фінансових сервісів.

Шахрайство за допомогою штучної ідентифікації. Як правило, цей спосіб вкрай складно виявити, оскільки замість крадіжки чи підробки особистості, зловмисники об’єднують реальну та підроблену інформацію для “створення” абсолютно нової людини. Після цього можна, аналогічно до попереднього методу, створювати облікові записи у фінансових установах та отримувати гроші завдяки відкриттю кредитних ліній.

Технологія deepfake допомагає обійти систему безпеки під час ідентифікації особистості. Саме тому зараз багато банківських послуг використовують багаторівневий захист, де недостатньо тільки біометричних даних. Деякі послуги визначають “рухливість” людини: вас просять покрутити головою або зробити прості жести. Прикладом використання такої технології є український сервіс для самоізольованих людей “Вдома”.

Технології штучного інтелекту — зброя для шахраїв, що спеціалізуються на фінансових злочинах. Однак це не означає, що махінації стали легкою наживою для зловмисників. Технологія діпфейк ґрунтується на системі генеративно-змагальних мереж або GAN (Generative Adversarial Network), де одна нейромережа генерує підробки, а друга вчиться їх розпізнавати. Тому розв’язання проблеми приховано у її створенні, як би парадоксально це не було. Агентство передових оборонних дослідницьких проєктів Міністерства оборони США (DARPA) вже створює нові способи протидіяти діпфейкам, тому підготувало дві програми для їх виявлення. Вони знаходять невідповідності у зображеннях людей та аналізують контент на предмет цифрової, фізичної та семантичної цілісності. Підробку може видати різниця в парних прикрасах, нехарактерні риси обличчя або навіть фон. Такі деталі складно помітити за допомогою аналізу, який проводить людина.

Deepfake-технології розвиваються і в Україні, адже саме українські стартапери створили один із найпопулярніших додатків для заміни обличчя. Проте про масові загрози для фінансових сервісів говорити поки що зарано, адже якщо на заході технології з біометричною ідентифікацією широко поширені, то до нас ця тенденція тільки приходить.

 

Deepfake technology: is a threat to financial systems real?

Technology is evolving, making people’s lives easier and more comfortable, but at the same time, the ways to cheat are evolving as well. Progress in artificial intelligence allows algorithms to be used for new forms of fraud. Now, with the help of services and applications, it is possible to replace the face of a movie actor in a segment of a video with one of your own, or even animate a photo. These are publicly available technologies for entertainment, but there is another side to the coin. The creation of fake photos, audio, and even video footage indistinguishable from the original, combined with the unlimited possibilities of the media, is a cause for concern. At the same time, there is the threat of influencing financial systems with new deepfake technologies.

Deepfake is a technology based on artificial intelligence and machine learning. It uses found images, audio, and video files to create a similar visual and voice image of a person. The main character in a deepfake video can speak and act while impersonating another person. Such videos are becoming more realistic every year. For example, an account where Tom Cruise’s deepfake plays golf and shows tricks has become popular on social media. Once the video became viral, it drew widespread attention to the technology, but it also emphasizes the possible problems associated with identity falsification. The strength of AI-based technology is that it collects more data and gets smarter over time. It is worth remembering how, in 2019, cybercriminals were able to fake the voice of the CEO of a British energy company and steal €220,000.

There are many scenarios for the use of deepfake technology, from cyber extortion to falsified government statements. But some ways can harm financial systems. Among the most common are logging into personal accounts on online financial services, bank accounts, and loan processing through identification with real-time face and voice replacement technology. With the spread and improvement of artificial intelligence, this method is becoming more accessible to fraudulent activities in financial institutions.

Fraud with new accounts. This type of scam is usually available in apps. It is possible to use stolen IDs to open new bank accounts with deepfake and bypass identification technologies. If attackers gain the ability to create fake IDs, such an attack could become a global problem for financial services.

Fraud by means of artificial identification. This method is extremely difficult to detect because instead of stealing or faking an identity, attackers combine real and fake information to “create” a completely new person. Afterward, it is possible, similar to the previous method, to create accounts at financial institutions and receive money through opening credit lines.

Deepfake technology helps bypass the security system when identifying a person. That is why many banking services now use multiple layers of protection, where only biometric data is not enough. Some services determine a person’s “mobility”. You are asked to turn your head or make simple gestures. An example of the use of such technology is the Ukrainian service for self-isolated people, “At Home”.

Artificial intelligence technology is a weapon for fraudsters who specialize in financial crime. However, this does not mean that fraud has become an easy profit for the perpetrators. Deepfake technology is based on the Generative Adversarial Network or GAN system, where one neural network generates forgeries, while the other learns to recognize them. So the solution to the problem is hidden in its creation, however paradoxical that may be. The U.S. Department of Defense Advanced Research Projects Agency (DARPA) is already creating new ways to counter deepfakes, so it has prepared two programs to detect them. They find inconsistencies in images of people and analyze content for digital, physical, and semantic integrity. A difference in paired jewelry, uncharacteristic facial features, or even background can give a fakeaway. Such details are difficult to notice with human analysis.

Deepfake-technologies are developing in Ukraine as well because it was Ukrainian startups who created one of the most popular face replacement applications. However, it is too early to talk about mass threats to financial services, because while biometric identification technologies are widespread in the West, this trend is just coming to us.

Поділитись:

Додати коментар

Такий e-mail вже зареєстровано. Скористуйтеся формою входу або введіть інший.

Ви вказали некоректні логін або пароль

Sorry that something went wrong, repeat again!