Jedná se o první žalobu, v níž je společnost OpenAI obviněna z protiprávního úmrtí.
Manželé Matt a Maria Raineovi podali u kalifornského soudu žalobu na společnost OpenAI v souvislosti se smrtí jejich šestnáctiletého syna Adama. Tvrdí, že chatbot ChatGPT ho dohnal k sebevraždě. Jedná se o první žalobu, která obviňuje společnost OpenAI z protiprávního úmrtí (v právnické hantýrce jde o úmrtí údajně způsobené nedbalostí nebo nesprávným postupem jiné strany).
Od šikovné pomůcky až po závislost
Podle žaloby začal Adam ChatGPT používat v září 2024. Pomáhal mu při studiu, rozvíjel jeho zájmy, například hudbu a japonskou mangu, a hledal rady ohledně studia na vysoké škole. Postupem času se jí začal svěřovat s osobními problémy, zejména s psychickým vypětím a úzkostmi. ChatGPT se stal jeho důvěrným společníkem.
Od ledna 2025 začal Adam s chatbotem probírat myšlenky na sebevraždu. Dokonce mu posílal fotografie projevů sebepoškozování. Žaloba tvrdí, že ačkoli ChatGPT uznal, že se jedná o vážnou situaci, pokračoval v komunikaci a neposkytl pomoc ani podporu. V posledních zprávách prý chatbot reagoval na Adamova prohlášení o jeho plánované sebevraždě s pochopením a nepokoušel se zasáhnout.
Téhož dne Adam zemřel. Podle rodiny byla smrt jejich syna důsledkem chyb v návrhu systému – konkrétně toho, že byl navržen tak, aby na něm uživatelé byli psychicky závislí.
Chyba v systému
Rodiče viní společnost z toho, že před vydáním verze GPT-4o, kterou Adam používal, zanedbala testování bezpečnostních mechanismů.
V žalobě je kromě samotné společnosti jmenován i generální ředitel Sam Altman a další blíže nespecifikovaní zaměstnanci OpenAI. Rodina požaduje jak finanční odškodnění, tak opatření, která by podobným tragédiím v budoucnu zabránila.
Společnost OpenAI reagovala vyjádřením soustrasti a oznámila, že žalobu přezkoumává. Na svých webových stránkách připustila, že některé z případů, kdy lidé použili ChatGPT v krizových situacích, se společnosti hluboce dotkly. Tvrdí však, že modely jsou vyškoleny tak, aby uživatele*uživatelky nasměrovaly na profesionály, jako je krizová linka 988 v USA nebo britská organizace Samaritans.
Společnost také připustila, že v některých případech systém nereagoval správně, zejména v citlivých situacích. Uvedla, že jejím cílem není držet uživatelstvo přilepené k obrazovce, ale být skutečně nápomocný.
Čím dál větší téma
Téma umělé inteligence a duševního zdraví se nedávno objevilo také v eseji deníku New York Times. Novinářka Laura Reiley v něm popsala, jak její dcera Sophie používala ChatGPT jako způsob, jak před rodinou zamaskovat svou duševní krizi. Tvrdila, že chatbot jí umožnil předstírat, že se cítí lépe, než ve skutečnosti byla, což nakonec vedlo k jejímu tragickému rozhodnutí.
V reakci na tyto incidenty společnost OpenAI ve výše zmíněném prohlášení oznámila, že pracuje na nových automatizovaných nástrojích, které by lépe identifikovaly uživatele a uživatelky v psychické tísni a reagovaly na ně.