$ 42.4 € 43.45 zł 10.19
0° Київ 0° Варшава +1° Вашингтон

Чому штучний інтелект має расистські і сексистські упередження — відповідає AI-помічник від Google

Ілона Завальнюк 25 Жовтня 2024 18:33
Чому штучний інтелект має расистські і сексистські упередження — відповідає AI-помічник від Google

Багато користувачів сервісів на базі штучного інтелекту помічають, що інструмент з ШІ іноді може видавати відверто расистські або сексистські відповіді на запити чи створювати контент із упередженнями. Медіа UA.NEWS розпитало помічника Google Gemini, який працює на основі штучного інтелекту, чому ШІ-інструменти транслюють расизм чи сексизм.

У своїй відповіді AI-помічник Gemini пояснив, що причина у даних, на яких навчається штучний інтелект. Якщо йому згодувати дані із упередженнями, то ШІ буде їх видавати. Повна відповідь Gemini щодо стереотипів, які транслює штучний інтелект, звучить так:

ШІ може мати расистські або сексистські упередження через те, що він навчається на даних, які містять ці упередження, відображаючи реальні соціальні нерівності та стереотипи, присутні в суспільстві

Gemini

AI-помічник 


Повну розмову нашого медіа зі штучним інтелектом можна подивитись за посиланням.

Читайте також:

Штучний інтелект допоможе лікарям знаходити зламані кістки

Штучний інтелект Apple Intelligence почнуть розгортати вже цього місяця