Британія проведе перший глобальний саміт з безпеки штучного інтелекту цього року
Британія проведе глобальний саміт з безпеки штучного інтелекту цього року, а прем’єр-міністр Ріші Сунак і президент США Джо Байден обговорять цю технологію на своїй зустрічі в сьогодні, 8 червня.
Про це повідомляє Reuters із посиланням на заяву уряду Великої Британії.
Байден і Сунак під час зустрічі працюватимуть над координацією своїх підходів до критичних і нових технологій з метою зміцнення своєї економічної безпеки. Сунак запланував широкі дискусії з Байденом стосовно Британії та США. Обговорюватимуть яким чином обидві країни можуть працювати разом, щоб зміцнити свої економіки та зміцнити своє «спільне лідерство в технологіях майбутнього».
Американська технологічна компанія Palantir Technologies, яка вже має понад 800 співробітників у Британії, окремо оголосить про плани зробити Велику Британію своєю новою європейською штаб-квартирою з розробки ШІ, йдеться в заяві британського уряду.
Декілька урядів думають, як пом’якшити небезпеку нової технології, яка пережила бум інвестицій і споживчої популярності в останні місяці після випуску OpenAI ChatGPT. За словами мільярдера Ілона Маска, який зустрічався з офіційними особами під час своєї недавньої поїздки до Китаю, це включає Китай, де уряд прагне запровадити регулювання штучного інтелекту.
Регулятори в усьому світі намагаються розробити правила, що регулюють використання генеративного штучного інтелекту, який може створювати текст, зображення, а їх вплив порівнюють із появою Інтернету.
Раніше науковці та лідери технологічної галузі, зокрема, топові фахівці Google і Microsoft, випустили попередження про небезпеки, які несе ШІ.
Заступниця голови Єврокомісії Віра Йоурова вважає, що компанії повинні маркувати контент, створений штучним інтелектом, у межах боротьби з фейковими новинами.
У Міжнародному валютному фонді попередили про «ризик суттєвих збоїв на ринках праці», повʼязаних із генеративним штучним інтелектом, і закликають політиків розробити правила для управління новою технологією.