Skip links

ChatGPT подведе опитен адвокат с невярна информация

Изкуственият интелект ChatGPT причини сериозни главоболия на адвокатска кантора
(снимка: CC0 Public Domain)

Американският адвокат Стивън Шварц използва популярния разговорен бот ChatGPT, за да подготви документи за дело срещу Avianca. Но опитът за опростяване на работата с помощта на AI алгоритъма се оказа катастрофа за адвоката – творението на OpenAI го снабди с ненадеждна информация и сега Шварц ще бъде наказан.

Шварц от адвокатската кантора Levidow, Levidow & Oberman, който прекара последните 30 години от живота си в Ню Йорк, представляваше Роберто Мата в дело срещу колумбийската авиокомпания Avianca. Мата, според собственото му изявление, е бил наранен по време на полет през 2019 г. от служител на компанията превозвач – стюардеса го ударила в коляното с метална количка, която се използва за обслужване на пътниците. Това накарало мъжът да заведе дело срещу Avianca с подкрепата на Levidow, Levidow & Oberman.

Адвокатите на Avianca решават да прекратят съдебния спор и искат от федералния съдия Кевин Кастел да отхвърли делото на основание, че давността е изтекла. Адвокатите на пострадалия пътник обаче се позовават на прецедент – те цитират като пример няколко подобни случая наведнъж, чието разглеждане в миналото е приключило в полза на ищеца.

Документите, представени от Шварц в съда, включват дела като Мартинес срещу Delta Air Lines, Зикерман срещу Korean Air Lines и Варгес срещу China Southern Airlines. Както се оказа по-късно, авторът на документите решил да не си губи времето в търсене на бази данни с правна информация като LexisNexis или Westlaw, а прибягнал до помощта на разговорния бот ChatGPT от OpenAI. Опитният адвокат Шварц не проверил внимателно данните, получени от бота, и веднага ги въвел в документите, които след това са предадени на съда.

Участниците в процеса се усъмняват, че нещо не е наред, тъй като нито представителите на ответника, нито самият съдия успяват да намерят текстовете на решенията по делата, посочени в документите. Съдията иска обяснение от Шварц, което той представя писмено. Причината, поради която съдът не е успял да намери случаите, посочени от адвоката в документите, се оказва изключително проста – в действителност те никога не са съществували, а ChatGPT просто ги е „измислил”, опитвайки се да подкрепи позицията на ищеца.

Адвокатът изразява съжаление за решението си да разчита на услугата с изкуствен интелект. Той твърди, че никога не е използвал ChatGPT преди това и следователно не е знаел, че текстът, генериран от бота, може да съдържа невярна информация.

Шварц се опитал да провери автентичността на данните, издадени от бота, с помощта на… същия бот: адвокатът пита ChatGPT дали случаите, на които той се позовава, наистина съществуват. Отговорът на диалоговия бот е възможно най-кратък: „Да”.

Съдия Кастел описва ситуацията, в която правните документи са затрупани с „фалшиви съдебни решения, препратки и цитати”, като безпрецедентна.

Съдът е насрочил дисциплинарно изслушване за 8 юни 2023 г., по време на което ще бъдат обсъдени потенциални санкции срещу Шварц и колегата му от адвокатската кантора Питър Лодука.

source

This website uses cookies to improve your web experience.
Начало