Lifestylový obsah, který inspiruje, vzdělává i baví, najdeš na webu Refresher.
Články o módě, hudbě, sportu či jiných zajímavostech najdeš na webu Refresher. Čti rozhovory se zajímavými osobnostmi, otestuj se v kvízech, načerpej inspiraci, co sledovat, poslouchat nebo jaké trendy právě letí. Sleduj lifestylový obsah na webu Refresher.
Kliknutím na tlačítko tě přesměrujeme na www.refresher.cz
Vyzkoušej klub REFRESHER+ už od 25 Kč během prvních tří měsíců 😱
Kateřina Viková
28. května 2023 v 15:01
Čas čtení 1:00

Advokát při práci použil ChatGPT, dostal od něj ale nepravdivé informace. Teď musí sám před soud

Kategorie:
Zahraničí
Uložit Uložené
Advokát při práci použil ChatGPT, dostal od něj ale nepravdivé informace. Teď musí sám před soud
Zdroj: Getty Images/SOPA Images/Contributor

Newyorský právník čelí soudu kvůli tomu, že jeho advokátní kancelář využila nástroj umělé inteligence ChapGPT k právnímu výzkumu. Při jednání pak předložil příklady neexistujících soudních rozhodnutí.

Soudu předložil podání, která odkazovala na domnělé právní případy relevantní k tomu projednávanému, po ověření však vyšlo najevo, že neexistují. Právník, který ChatGPT použil, si nebyl vědom toho, že může poskytnout smyšlený či nepravdivý obsah. Webové stránky tohoto nástroje umělé inteligence, která na vyžádání vyprodukuje originální text, varují, že „může vygenerovat nepřesné informace“. Informuje o tom BBC.

Šest falešných soudních rozhodnutí 

V případu muž, který se zranil v letadle, žaloval aerolinku. Jeho právní tým předložil zprávu, která citovala několik předchozích soudních případů, ve snaze pomocí precedentu dokázat, proč by se měl případ vyvíjet v jejich prospěch. Ale právník letecké společnosti nemohl dané případy dohledat a obrátil se na soudce.

28. května 2023 v 12:46 Čas čtení 1:08 Toto jsou nové ruské podmínky pro mír na Ukrajině. Jak na ně Kyjev reaguje? Toto jsou nové ruské podmínky pro mír na Ukrajině. Jak na ně Kyjev reaguje?

„Šest z předložených soudních rozhodnutí se zdají být falešnými soudními rozhodnutími s falešnými citacemi,“ napsal soudce Castel v příkazu, který požadoval, aby je žalobcův právní tým vysvětlil.

„Už to nikdy neudělám“

V průběhu se ukázalo, že výzkum nezpracoval Peter LoDuca, právník žalobce, ale jeho kolega ze stejné advokátní kanceláře, Steven A. Schwartz, který je advokátem více než 30 let. Přesto použil ChatGPT k hledání podobných případů, přičemž jeho kolega o použití chatbota nevěděl. 

Schwartz řekl, že nástroj předtím při své práci nikdy nevyužil a jeho použití „velmi lituje“. Nevěděl, že může vytvořit smyšlené nebo nepřesné informace. Zavázal se, že nikdy nepoužije umělou inteligenci, aby „suplovala“ právní výzkum, bez „absolutního ověření její autenticity“. Chatbot právníkovi přitom tvrdil, že případy jsou skutečné, i když se několikrát doptával. 

Oba advokáti ze společnosti Levidow, Levidow & Oberman mají nyní před soudem vysvětlit, proč by neměli být disciplinováni. 

Domů
Sdílet
Diskuse