Блокчейн, финтех, новая экономика, блэкджек

Доверяй, но проверяй: ChatGPT подставил адвоката — он может лишиться лицензии

Новости

Нью-Йоркский адвокат Стивен Шварц из юридической фирмы Levidow, Levidow & Oberman столкнулся с серьезными проблемами после того, как воспользовался чат-ботом ChatGPT для подготовки судебных документов по делу своего клиента, сообщает CNN. Чат-бот сгенерировал вымышленные факты, и адвокату пришлось оправдываться за свой непрофессионализм.

Шварц представлял интересы Роберто Мата, который обвинял авиакомпанию Avianca Airlines в нанесении ущерба его здоровью. Адвокат хотел найти прецеденты, которые подтверждали бы халатность со стороны персонала авиакомпании, и обратился к чат-боту ChatGPT от компании OpenAI, основанному на технологии искусственного интеллекта. Чат-бот выдал ему список из нескольких дел, которые казались подходящими для его цели. Однако Шварц не проверил достоверность этих данных и включил их в свои документы, которые представил суду.

Оказалось, что чат-бот сгенерировал вымышленные факты, которые не имели никакого отношения к реальности. Судья Кевин Кастель, рассматривающий дело Мата, обнаружил, что по крайней мере шесть дел, упомянутых Шварцем, были фиктивными и не имели под собой никаких доказательств. Судья потребовал от Шварца объяснений и запустил проверку по факту предоставления ложной информации.

Шварц признался под присягой, что это был первый раз, когда он использовал чат-бота для юридического исследования, и что он не знал о том, что чат-бот может выдавать ложные данные. Он извинился за свою ошибку и пообещал больше не пользоваться искусственным интеллектом без абсолютной проверки всех фактов.

Судья Кастель назначил слушание по делу Шварца на 8 июня. Адвокату грозит потеря лицензии и другие санкции за нарушение этических норм.


Самые интересные и важные новости на нашем канале в Telegram

Понравилась статья?

Подпишись на e-mail рассылку и будь всегда в курсе последних событий
BTC
991502.39%
ETH
3413.988.86%
BCH
496.64.07%
XRP
1.426.02%
Ту зе МУН