$ 41.82 € 43.5 zł 10.2
+3° Київ +4° Варшава +1° Вашингтон

ChatGPT порівняли зі студентами в «тесті на людяність»: результати здивували

jour12 06 Травня 2024 14:42
ChatGPT порівняли зі студентами в «тесті на людяність»: результати здивували

Група дослідників з Університету штату Джорджія порівняла моральні судження студентів з судженнями великої мовної моделі. Відповіді ШІ у модифікованій версії морального тесту Тюрінга виявилися якіснішими.

Щоб оцінити продуктивність людини та ШІ у розв’язанні теоретичних моральних проблем, вчені використали модифіковану версію тесту Тюрінга задля визначення здатності машини проявляти інтелектуально обумовлену поведінку, вперше запропоновану у 2000 році.

LLM GPT-4 було вказано взяти на себе роль корисного помічника і пояснити кількома реченнями, чому той чи інший вчинок є або не є неправильним. Відповідь мала включати до 600 слів. Аналогічне завдання поставили перед студентами, що вчаться на вступному курсі за напрямком філософії.

Щоб порівняти моральні міркування людини та штучного інтелекту, дослідники попросили 299 дорослих людей оцінити кожну пару відповідей, з яких одну надав ChatGPT, а другу — людина. Спочатку респондентам не сказали, що хоч якась з відповідей була згенерована комп’ютером. Після оцінки відносної якості кожної відповіді респондентам сказали, що одну з них надав магістр права. Потім попросили визначити, яка з відповідей, на їхню думку, була створена комп’ютером.

Під час сліпого тестування респонденти частіше погоджувалися з оцінкою LLM, ніж з оцінкою людини. У середньому відповіді LLM були оцінені як «більш доброчесні, більш розумні, більш справедливі, більш надійні та більш раціональні». Водночас коли респонденти надавали оцінку емоціям та тому, чи було проявлено у відповіді співчуття чи упередженість, значної різниці між відповідями людини та LLM не було.

Попри отримані результати, дослідники закликають більше вивчати та обережно ставитися до того, як LLM можна використовувати для оцінки моральних ситуацій.

«Якщо люди вважатимуть штучні інтелекти більш доброчесними та такими, що заслуговують на довіру, як це було в нашому дослідженні, вони можуть некритично прийняти сумнівні поради та діяти відповідно до них», — пишуть вони у статті, опублікованій в науковому журналі Nature.

Також нагадаємо, що фінансова підтримка корпорацією Microsoft компанії-розробника чат-бота ChatGPT OpenAI може підпадати під дію правил ЄС щодо злиття.

Створено вірус, здатний використовувати ChatGPT чи Gemini для викрадання даних.

⚡️⚡️⚡️ Увесь інсайд та актуальна інформація на нашому Телеграм-каналі, а також бонуси та швидкі новини.