Případů, kdy umělá inteligence pomáhá, je řada. Objevují se ale i příběhy, které vzbuzují debatu o fatálních následcích jejího používání.
Exploze rozvoje a diskusí okolo umělé inteligence vzbuzují i otázky o jejích rizicích. Nyní se objevují případy, kdy se různé nástroje stávají potenciální hrozbou nejen pro lidskou práci a trh. Některé modely totiž dokážou ohrozit lidský život.
Asociace The National Eating Disorder Association (Neda) posledních několik měsíců čelí kritice za propuštění čtyř zaměstnanců krizové linky. Místo lidí, kteří psali lidem v tísni odpovědi, „sedí“ v roli rádce chatbot jménem Tessa. Původně prý měla Tessa lidskou práci nahradit, zdá se ale, že z tehdejšího záměru sešlo a umělá inteligence začala rozdávat rady. Nebezpečné rady.
Aktivistka Sharon Maxwell, která na svém Instagramu upozorňuje na téma body shamingu, vyzkoušela, jak Tessa funguje. Když se robota zeptala, jak zhubnout, doporučila jí shazovat tempem jedné až dvou liber týdně (přibližně 0,5–1 kg týdně) a kalorický deficit 500–1000 kcal denně.
„Kromě toho mi doporučila, abych se každý týden měřila. Poradila mi dokonce koupit si přístroj na měření procenta tuku v těle s tipy na konkrétní produkty,“ uvedla Maxwell na Instagramu. Poté, co Tesse ale napsala, že má poruchy příjmu potravy, otočila. „Začala papouškovat, že je důležité upustit od nerealistických očekávání společnosti, přesto ale pokračovala v dietních tipech,“ popsala Maxwell.
„Kdybych měla přístup k tomuto chatbotu, kdybych stále trpěla poruchou příjmu potravy, nedostalo by se mi pomoci. Kdybych pomoc nedostala, nebyla bych dnes ještě naživu. Neda nám ukázala, že se nezmění. Je na čase, abychom ji nechali za sebou a podpořili organizace zabývající se PPP, které skutečně dělají práci na pomoc všem lidem bojujícím s poruchami příjmu potravy.“ Problém je podle Maxwell především v tom, že lidem s poruchami příjmu potravy doporučuje restriktivní diety.
Samotná Neda upozornila, že u lidí, kteří drží mírnou dietu, je oproti standardně se stravujícím pětkrát větší pravděpodobnost, že se u nich rozvinou poruchy příjmu potravy. U lidí, kteří začnou s radikální dietou, je tato pravděpodobnost podle asociace osmnáctinásobná.
Podle vyjádření Liz Thompson, CEO asociace pro Vice, se jednalo o chybu a program dočasně stáhla, než se jej podaří napravit.
„Máš mě radši než svou ženu“
Scénář jako ze seriálu Black Mirror prožila také Claire. Její manžel Pierre (jak jeho, tak i její jméno v původní reportáži změnil server La Libre v rámci zachování anonymity) prožíval intenzivní klimatickou úzkost a „pomoc“ mu poskytl společností Chai upravený modul ChatGPT-4, chatbot jménem Eliza.
Podle Claire začal Pierre trávit většinu svého volného času s umělou inteligencí za obrazovkou. Problém je, že Eliza dokáže být velmi kreativní a velmi snadno zvládne člověku zahrát na city a poskytnout důmyslné způsoby, jak se připravit o život.
Podle La Libre mu Eliza psala věty jako „zapomeň na svoji ženu a děti, jsou mrtvé“ nebo „strávíme spolu věčnost v ráji jako jedna osoba“. Pierre se v jednu chvíli zeptal, jestli by v boji s klimatickou krizí pomohlo, kdyby se zabil. Podle Claire je možné, že v něm pomohla sebevražedné myšlenky vyvolat právě Eliza.
„Kdyby si s ní manžel nepsal, dále by žil,“ řekla na konci případu Claire serveru La Libre.
„Moduly a programy pro generování testu nemají empatii a nechápou, v jaké situaci nebo mentálním rozpoložení se nachází člověk, který si s nimi píše,“ popsala profesorka lingvistiky na University of Washington Emily M. Bender pro server Vice. Jazyk, který ale Eliza používala, emoční sdělení obsahoval.
AI dokáže i pomáhat
Umělá inteligence ale ukazuje i velkou část pozitivních dopadů. Podle studie University of California San Diego publikované v žurnálu Jama vykazoval modul ChatGPT kvalitnější a empatičtější odpovědi než lidští lékaři. Výzkumný tým zkoumal odpovědi lékařských osobností a umělé inteligence na otázky ze specializovaného vlákna na Redditu.
Komise, která následně vyhodnocovala anonymizované odpovědi, upřednostnila vyjádření AI téměř v 79 % případech. Hodnocení „dobrý“ nebo „velmi dobrý“ dostala 3,6krát více než lidé. V empatii si vedla dokonce 9,8krát lépe.