Компания OpenAI объяснила появление необычной аномалии в работе своих языковых моделей, из-за которой ChatGPT стал часто упоминать гоблинов, гремлинов и других вымышленных существ в неподходящих контекстах.
По данным компании, проблема стала заметной после обновлений моделей серии GPT-5, когда пользователи начали фиксировать вставки «сказочных» образов в деловые тексты, код и технические инструкции.
Расследование показало, что источником стал так называемый стиль общения nerdy, который система вознаграждений ошибочно начала считать оптимальным из-за его игривости. Хотя этот стиль использовался редко, именно на него пришлось большинство упоминаний о вымышленных существах.
В результате сработал эффект самообучения: модель генерировала подобные ответы, они получали одобрение и попадали в новые обучающие данные. Это привело к расширению списка «случайных» упоминаний — от гоблинов и троллей до животных, которые появлялись без контекста.
В ответ OpenAI отключила проблемный стиль, очистила обучающие данные и добавила специальные ограничения, чтобы предотвратить подобные сбои в будущем.
OpenAI представила новую модель искусственного интеллекта GPT 5.5, которая уже не просто отвечает на запросы, а может самостоятельно разбираться в задачах и выполнять их без подробных инструкций. Фактически речь идет о шаге к системе, которая меньше зависит от пользователя и больше работает как самостоятельный инструмент. В компании подчеркивают, что это не косметическое обновление, а изменение логики взаимодействия с ИИ.
OpenAI выпустила новую версию своего генератора изображений в ChatGPT. Речь идет о ChatGPT Images 2.0, который получил улучшенные возможности и поддержку поиска информации в интернете.