Чому штучний інтелект має расистські і сексистські упередження — відповідає AI-помічник від Google
Багато користувачів сервісів на базі штучного інтелекту помічають, що інструмент з ШІ іноді може видавати відверто расистські або сексистські відповіді на запити чи створювати контент із упередженнями. Медіа UA.NEWS розпитало помічника Google Gemini, який працює на основі штучного інтелекту, чому ШІ-інструменти транслюють расизм чи сексизм.
У своїй відповіді AI-помічник Gemini пояснив, що причина у даних, на яких навчається штучний інтелект. Якщо йому згодувати дані із упередженнями, то ШІ буде їх видавати. Повна відповідь Gemini щодо стереотипів, які транслює штучний інтелект, звучить так:
Повну розмову нашого медіа зі штучним інтелектом можна подивитись за посиланням.
Читайте також:
Штучний інтелект допоможе лікарям знаходити зламані кістки
Штучний інтелект Apple Intelligence почнуть розгортати вже цього місяця