Хванаха адвокат от Ню Йорк да използва ChatGPT, след като е цитирал дела, които не съществуват
Адвокат от Ню Йорк си навлече неприятности, след като представи правно проучване, създадено от чатбота ChatGPT.
По време на дело срещу авиокомпания, съдена за предполагаема телесна повреда, адвокатите на ищеца подават справка, съдържаща няколко дела, които да бъдат използвани като правен прецедент. За съжаление, както става ясно по-късно от писмена клетвена декларация, съдът е "установил, че следните дела не съществуват":
Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
Petersen v. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
Martinez v. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. Sept. 25, 2019)
Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
Miller v. United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)
Според Би Би Си "проучването" е изготвено от адвокат Стивън А. Шварц, юрист с над 30-годишен опит. В писмената клетвена декларация Шварц заявява, че досега не е използвал ChatGPT за правни проучвания и "не е знаел за възможността съдържанието му да е невярно".
Скрийншоти в писмените показания показват как адвокатът пита чатбота "истинско дело ли е варгезе", на което чатботът отговаря "да". Когато е попитан за източника, чатботът казва, че делото може да бъде намерено "в базите данни за правни изследвания като Westlaw и LexisNexis". На въпроса "фалшиви ли са другите дела, които представи", той отговаря "не", като добавя, че те могат да бъдат намерени в същите бази данни.
Колкото и забавни да са чатботовете или колкото и напреднали да изглеждат, те все още са склонни към т.нар. "халюцинации" – отговори, които звучат абсолютно смислени, но които нямат никаква връзка с реалността.
Това не е инструмент, който трябва да използвате при проучването на правен казус, който се основава на реални прецеденти, а не на „халюцинациите“ на даден бот.
Адвокатът пише, че "много съжалява, че е използвал генеративен изкуствен интелект, за да допълни извършеното правно изследване" и се зарича „никога да не го прави в бъдеще, без да се увери напълно в неговата автентичност".
Както Шварц, така и адвокатът Питър Лодука, който не е знаел, че ChatGPT е използван като инструмент за проучване на делото, ще бъдат изслушани на 8 юни във връзка с инцидента.
Източник: IFLScience