Newyorský právník čelí soudu kvůli tomu, že jeho advokátní kancelář využila nástroj umělé inteligence ChapGPT k právnímu výzkumu. Při jednání pak předložil příklady neexistujících soudních rozhodnutí.
Soudu předložil podání, která odkazovala na domnělé právní případy relevantní k tomu projednávanému, po ověření však vyšlo najevo, že neexistují. Právník, který ChatGPT použil, si nebyl vědom toho, že může poskytnout smyšlený či nepravdivý obsah. Webové stránky tohoto nástroje umělé inteligence, která na vyžádání vyprodukuje originální text, varují, že „může vygenerovat nepřesné informace“. Informuje o tom BBC.
Šest falešných soudních rozhodnutí
V případu muž, který se zranil v letadle, žaloval aerolinku. Jeho právní tým předložil zprávu, která citovala několik předchozích soudních případů, ve snaze pomocí precedentu dokázat, proč by se měl případ vyvíjet v jejich prospěch. Ale právník letecké společnosti nemohl dané případy dohledat a obrátil se na soudce.
„Šest z předložených soudních rozhodnutí se zdají být falešnými soudními rozhodnutími s falešnými citacemi,“ napsal soudce Castel v příkazu, který požadoval, aby je žalobcův právní tým vysvětlil.
„Už to nikdy neudělám“
V průběhu se ukázalo, že výzkum nezpracoval Peter LoDuca, právník žalobce, ale jeho kolega ze stejné advokátní kanceláře, Steven A. Schwartz, který je advokátem více než 30 let. Přesto použil ChatGPT k hledání podobných případů, přičemž jeho kolega o použití chatbota nevěděl.
Schwartz řekl, že nástroj předtím při své práci nikdy nevyužil a jeho použití „velmi lituje“. Nevěděl, že může vytvořit smyšlené nebo nepřesné informace. Zavázal se, že nikdy nepoužije umělou inteligenci, aby „suplovala“ právní výzkum, bez „absolutního ověření její autenticity“. Chatbot právníkovi přitom tvrdil, že případy jsou skutečné, i když se několikrát doptával.
Oba advokáti ze společnosti Levidow, Levidow & Oberman mají nyní před soudem vysvětlit, proč by neměli být disciplinováni.