Американский юрист использовал ChatGPT для подготовки иска, а тот его обманул

Стивен Шварц из Levidow, Levidow & Oberman попросил ИИ подобрать похожие дела на то, в котором ему предстояло участвовать. Чат-бот придумал нужные данные, из-за чего Шварцу теперь грозят неприятности.
Шварц предоставил скриншоты диалога с чат-ботом, на которых видно, что юрист не только попросил предоставить похожие случаи, но и уточнил, реальные ли они.
Нью-Йорский юрист был представителем некоего Маты, который подал суд против авиакомпании Avianca. Дело было в том, что во время полета ему повредило колено сервировочной тележкой. Компания пыталась замять дело, а адвокат Маты приняся искать похожие случаи.
Он попросил помощи у ChatGPT. Но оказалось, что предложенные им эпизоды были выдуманы.
Теперь у Шварца, юриста с 30-летним стажем, будут большие проблемы. Он уже предстал перед судом за подлог.
Продукт OpenAI заверил его, что дела можно найти в «уважаемых юридических базах данных».
Естественно, это оказалось неправдой.
Ранее в китайской провинции Ганьсу задержали мужчину, который якобы использовал ChatGPT для создания фейковой истории о железнодорожной катастрофе - это первый арест в Китае, связанный с использованием искусственного интеллекта.
Генеральный директор компании OpenAI Сэм Альтман призвал законодателей США регулировать искусственный интеллект.
В Канаде регуляторы начнут расследование в отношении компании OpenAI из-за проблем с конфиденциальностью.
