Американський юрист використав ChatGPT для підготовки позову, а той його обдурив

Стівен Шварц з Levidow, Levidow & Oberman попросив ШІ підібрати схожі справи на ту, в якій він мав брати участь. Чат-бот придумав потрібні дані, через що Шварцу тепер загрожують неприємності.
Шварц надав скріншоти діалогу з чат-ботом, на яких видно, що юрист не тільки попросив надати схожі випадки, а й уточнив, чи реальні вони.
Нью-Йоркський юрист був представником кліюньа на ім'я Мата, який подав суд проти авіакомпанії Avianca. Справа була в тому, що під час польоту йому пошкодило коліно сервірувальним візком. Компанія намагалася зам’яти справу, а адвокат Мати почав шукати схожі випадки.
Він попросив допомоги у ChatGPT. Але виявилося, що запропоновані ним епізоди були вигадані.
Тепер у Шварца, юриста з 30-річним стажем, будуть великі проблеми. Він уже постав перед судом за фальсифікацію.
Продукт OpenAI запевнив його, що справи можна знайти в «шанованих юридичних базах даних».
Звісно, це виявилося неправдою.
Нещодавно у китайській провінції Ганьсу затримали чоловіка, який нібито використовував ChatGPT для створення фейкової історії про залізничну катастрофу – це перший арешт у Китаї, пов’язаний із використанням штучного інтелекту.
Генеральний директор компанії OpenAI Сем Альтман закликав законодавців США регулювати штучний інтелект.
У Канаді регулятори почнуть розслідування щодо компанії OpenAI через проблеми з конфіденційністю.
