Advokater som är inblandade i ett fall mot det colombianska flygbolaget Avianca överraskade genom att presentera en serie fiktiva rättsfall. Deras källa? ChatGPT. Fallet rapporterades i en artikel i The New York Times.
Efter att motparten påpekade att de nämnda fallen inte existerade, bekräftade domare Kevin Castel från USA:s distrikt att “sex av de fall som presenterades verkar vara falska rättsliga beslut, med bedrägliga interna citat och referenser” och beordrade en utfrågning för att analysera eventuella sanktioner till de advokater som är ansvariga för felet.
Advokaten Steven A. Schwartz erkände i ett edsvuret uttalande att han använde OpenAI-chatboten för sin forskning. För att verifiera fallens äkthet bestämde han sig för att fråga själva chatboten om den ljög.
När ChatGPT begärde en källa bad ChatGPT om ursäkt för den tidigare förvirringen och insisterade på att fallet i fråga var verkligt, och hävdade att det kunde hittas i Westlaw- och LexisNexis-juridiska databaser. Nöjd med svaret frågade Schwartz om de andra fallen var falska, och ChatGPT hävdade att de alla var verkliga.
Motparten presenterade frågan i detalj för domstolen och påpekade hur advokaternas framställning på Levidow, Levidow & Oberman var full av lögner.
I ett specifikt exempel hänvisade chatboten till ett icke-existerande fall som heter Varghese v. China Southern Airlines Co., Ltd. Det visade sig att chatboten felaktigt refererade till ett annat verkligt fall, Zicherman v. Korean Air Lines Co., Ltd. Men datumet var felaktigt, vilket angav att beslutet skulle ha ägt rum 12 år efter det ursprungliga datumet 1996, tillsammans med andra detaljer.
Schwartz hävdar att han “var omedveten om möjligheten att innehållet var falskt.” Han “ångrar djupt att han använde generativ artificiell intelligens för att komplettera sin juridiska forskning och kommer aldrig att göra det igen utan att fullständigt verifiera dess äkthet.”
Det är värt att notera att Schwartz inte är behörig att utöva advokatverksamhet i New Yorks södra distrikt, men han var ansvarig för att initialt presentera fallet innan han överfördes till den domstolen. En annan advokat från samma byrå, Peter LoDuca, tog ansvar för fallet och kommer att behöva infinna sig inför domaren för att förklara vad som egentligen hände.
Återigen belyser detta avsnitt det absurda i att använda chatbots för forskning utan att dubbel- eller tredubbla källor någon annanstans. Debuten av Microsofts Bing är nu förknippad med lögner och manipulation.
Googles chatbot för artificiell intelligens, kallad Bard, uppfann ett faktum om rymdteleskopet James Webb i sin första demonstration.