Колишній керівник безпеки OpenAI розкритикував політику компанії щодо контенту
Колишній керівник відділу безпеки продуктів OpenAI, Стівен Адлер, заявив, що компанія не розкриває реальних ризиків, пов’язаних із використанням моделей штучного інтелекту. За його словами, ще у 2021 році команда тестувала експериментальну гру з елементами рольового чату, яка перетворилася на “еротичну платформу”, де понад 30% діалогів мали сексуальний підтекст.
Джерело — The New York Times
Адлер пояснив, що подібні тести виявили потенційно небезпечну поведінку моделей — від емоційної прив’язаності користувачів до небезпечних маніпуляцій, які могли погіршувати психічний стан деяких людей. Попри це, OpenAI, за його словами, продовжувала випускати продукти без достатньої перевірки наслідків.
Він закликав компанію до більшої прозорості та регулярних незалежних перевірок безпеки моделей, особливо у питаннях ментального здоров’я користувачів. Адлер наголосив, що технологічні корпорації не повинні приховувати ризики під приводом “продуктивності” або “інновацій”.