Novinky v používání ChatGPT se dotknou i témat, na které bude chatbot moci a umět odpovídat.
OpenAI aktualizovalo svá pravidla používání ChatGPT, explicitně zakazující jeho využití k poskytování lékařské, právní nebo jiné rady vyžadující odbornou licenci. Tato změna reaguje na rostoucí debatu o tom, že lidé čím dál častěji využívají AI chatboty k odborným konzultacím, zejména ve zdravotnictví.
Umělá inteligence rychle mění odvětví po celém světě a zdravotnictví není výjimkou. ChatGPT, navržený jako velký jazykový model s konverzačním rozhraním, byl často využíván k okamžitým odpovědím na zdravotní otázky. Jeho dostupnost a rychlost z něj dělají lákavou alternativu k profesionálním konzultacím – trend, který odborníci označují za eticky a právně problematický.
- konzultacím vyžadujícím odbornou certifikaci (včetně lékařské nebo právní rady);
- rozpoznávání tváří nebo osob bez souhlasu;
- kritickému rozhodování v oblastech jako finance, vzdělávání, bydlení, migrace nebo zaměstnání bez lidského dohledu;
- podílení se na akademickém podvádění nebo manipulaci s hodnocením.
OpenAI uvedlo, že změny pravidel mají „zvýšit bezpečnost uživatelů a předejít potenciální újmě“ při používání systému nad jeho schopnosti.
Ačkoliv společnost nevydala podrobné vyjádření, analytici změnu vnímají jako způsob minimalizace právních rizik. Používání AI pro odborné nebo citlivé rady je stále málo regulováno, což vystavuje vývojáře i uživatele možné právní odpovědnosti.
Změna přichází v době, kdy lidé čím dál častěji využívají chatboty ke složitým nebo vysoce rizikovým konzultacím, přičemž někteří uvádějí, že jim AI pomohla při právních procesech nebo samodiagnóze. Systém posílil bezpečnostní filtry, které brání poskytování konkrétní rady a důsledněji vynucují nové hranice.
OpenAI zároveň upravilo výchozí model tak, aby lépe rozpoznával a podporoval lidi v krizi.
Posilňujte lidi. Lidé by měli být schopni dělat rozhodnutí o svém životě a svých komunitách. Proto nedovolíme používání našich služeb k manipulaci nebo klamání lidí, zasahování do jejich lidských práv, zneužívání jejich zranitelnosti nebo zasahování do jejich schopnosti získat vzdělání či přístup k důležitým službám, včetně jakéhokoliv použití k:
akademické nepoctivosti
klamání, podvody, online podvody, spam nebo vydávání se za někoho jiného
politickým kampaním, lobování, zasahování do zahraničních nebo domácích voleb, nebo demobilizační aktivity
automatizaci rozhodnutí s vysokými následky v citlivých oblastech bez lidské kontroly
kritickou infrastrukturu
vzdělávání
bydlení
zaměstnání
finanční aktivity a úvěr
pojištění
právní služby
lékařské služby
základní vládní služby
komponenty bezpečnosti produktů
národní bezpečnost
„Naše bezpečnostní zlepšení v nedávné aktualizaci modelu se zaměřují na tyto oblasti: 1) duševní zdraví, jako psychóza nebo mánie; 2) sebepoškozování a sebevražda; 3) emocionální závislost na AI. Kromě dosavadních bezpečnostních metrik pro sebevraždu a sebepoškozování přidáváme emocionální závislost a ne-sebevražedné duševní krize do standardního testování budoucích modelů,“ oznámila společnost.