Фото: нейросеть научилась создавать фото несуществующих котов, но получается у нее не очень хорошо

Фото: нейросеть научилась создавать фото несуществующих котов, но получается у нее не очень хорошо

UA UA.NEWS
Автор
UA UA.NEWS
UA.NEWS
Поделиться:

Нейросеть StyleGAN генерирует фото котов, которые больше похожи на что-то из фильмов ужасов.

Ранее сообщалось, что генеративно-соревновательная сеть (GAN), разработанная компанией Nvidia, создает чрезвычайно реалистичные лица людей, которых не существует в действительности. В то же время алгоритм искусственного интеллекта под названием StyleGAN научили генерировать изображения кошек, которых не существует, сообщает BleepingComputer. Результат получился не таким правдоподобным, как в Nvidia.

По мнению исследовательницы Джанелль Шейн, которая тоже обратила внимание на специфические результаты работы алгоритма, у искусственного интеллекта получилось создавать реалистичные фото людей, но не котов, через разнообразие массивов данных, на которых учили нейросеть.

«ИИ должен был научиться генерировать котов. В разных позах, под разными углами, часто — с другими котами, мебелью, людьми, даже с текстами-подписями на картинках с мемами. Модель, которая генерирует портреты, получила гораздо меньшую задачу: работать с человеческими лицами, вид спереди. Если бы ей поручили генерировать человеческие тела или одежду, особенно в различных позах, тоже возникли бы проблемы», — считает она.

Напомним, по данным исследования Института Горшенина каждый пятый украинец считаетискусственный интеллект угрозой.

Также Huawei дописала «Неоконченная симфония» Шуберта с помощью искусственного интеллекта. Для этого она использовала свой смартфон Mate 20 Pro.

Ранее Украина вошла в тройку лидеров по количеству компаний, работающих в сфере искусственного интеллекта в Восточной Европе.

Автор: UA UA.NEWS
Фото: Unsplash/StyleGAN
Поделиться:

Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Sorry that something went wrong, repeat again!