Det kan verka dumt att låta artificiell intelligens (AI) utföra en advokats arbete utan kontroll, men nyligen gjorde en professionell just det: han presenterade argument genererade av ChatGPT som i slutändan visade sig vara påhittade. Som svar beordrade den federala domaren i Texas, Brantley Starr, advokater att intyga att inga delar av förfarandet genererats av AI.
Vad som hände
- I en stämningsansökan mot flygbolaget Avianca presenterade advokaten Steven A. Schwartz försvarsargument baserade på liknande fall.
- Dock använde han ChatGPT för att undersöka dessa fall, och chatboten hittade på dem.
- Advokaten försäkrade även att verktyget inte ljög genom att ifrågasätta informationens sanningshalt.
- ChatGPT bad senare om ursäkt för den tidigare förvirringen, där det ifrågasattes om informationens källa, och bekräftade återigen att fallen var verkliga och kunde hittas i de juridiska databaserna Westlaw och LexisNexis.
- Schwartz var nöjd med svaret och använde fallen i sitt försvar.
- Den ansvariga domaren för fallet, Kevin Castel, från USA:s distriktsdomstol, bekräftade dock att “sex av de presenterade fallen verkar vara påhittade juridiska beslut, med falska interna hänvisningar och referenser”.
- De involverade advokaterna kallades till att redogöra för missbruket.
Kraven
Starr vill förhindra att andra situationer med påhittade lögner av ChatGPT och generativ AI uppstår igen. Han krävde att advokater vid domstolarna skulle försäkra att “ingen del av processen skrevs av generativ artificiell intelligens” och i sådana fall att den “verifierades av en människa”.
Domaren nämnde även ChatGPT, Harvey.IA och Google Bard.
Således kommer advokater att behöva underteckna en bilaga som bekräftar att de har uppfyllt dessa krav.
Användning av AI i rättssalen
I memoet från Starr framgår det vidare att “dessa plattformar är otroligt kraftfulla och har många användningsområden inom juridiken”, allt från skilsmässoformulär till förberedande frågor inför muntliga förhandlingar.
Uppdraget är dock inte ett av dem: verktygen riskerar att hitta på information och tilltala personliga övertygelser, eftersom generativ AI är resultatet av programmering utvecklad av människor utan en juridisk ed.
Promemorian säger vidare att dessa system är “fria från någon känsla av plikt, heder eller rättvisa” och att de “handlar enligt datorkod”.
Slutligen understryker han att all nödvändig användning av AI i förfaranden måste motiveras.
Åtgärden gäller endast för domstolen i Texas, men den bör snart tas upp av andra för att undvika samma problem.