Американські шахраї почали використовувати штучний інтелект
Американські поліцейські розповіли про те, що у місцевих пенсіонерів вивуджують гроші за стандартною схемою «родич у біді». Але тепер шахраї використовують штучний інтелект, що дозволяє імітувати голос будь-якої людини.
Згідно з офіційними даними, у 2022 році цей вид шахрайства був другим за популярністю в Америці, пише The Washingtonpost.
Успіху старого шахрайства сприяють досягнення у сфері штучного інтелекту. Вони дозволяють зловмисникам відтворити голос за допомогою невеликого аудіосемплу та дешевих онлайн-інструментів на базі штучного інтелекту.
Програма може відтворити висоту тону, тембр та модуляції голосу людини. За словами Хані Фаріда, професора цифрової криміналістики Каліфорнійського університету в Берклі, для цього буде потрібний всього лише короткий зразок аудіо з YouTube, подкасту, рекламного ролика, TikTok, Instagram або Facebook.
«Два роки тому, навіть рік тому, вам потрібно було багато аудіо, щоб клонувати голос людини. Тепер… якщо у вас є сторінка у Facebook… або якщо ви записали TikTok і ваш голос є там протягом 30 секунд, люди можуть клонувати ваш голос», — сказав Фарід.
Єва Веласкес, виконавчий директор Ресурсного центру з крадіжки особистих даних, повідомила, що правоохоронним органам складно вистежити злодіїв, які клонують голос. Веласкес, яка провела 21 рік в окружній прокуратурі Сан-Дієго, розслідуючи шахрайство зі споживачами, нарікає, що у поліцейських управлінь може не вистачити грошей та персоналу для фінансування підрозділів, які займаються відстеженням шахрайства.
Нещодавно у Китаї запрацював перший обчислювальний центр штучного інтелекту. Створення центру було спільно профінансовано урядом пекінського району Меньтоугоу й компаніями ZGC Group та Huawei.
Японський оператор мережі конвеєрних ресторанів Kura Sushi розробив систему сповіщення на базі штучного інтелекту з метою запобігання псування страв клієнтами.
Материнська компанія Google, Alphabet, втратила $100 мільярдів ринкової вартості 8 лютого через те, що новий чатбот Bard поділився недостовірною інформацією в рекламному відео.