Lifestylový obsah, který inspiruje, vzdělává i baví, najdeš na webu Refresher.
Články o módě, hudbě, sportu či jiných zajímavostech najdeš na webu Refresher. Čti rozhovory se zajímavými osobnostmi, otestuj se v kvízech, načerpej inspiraci, co sledovat, poslouchat nebo jaké trendy právě letí. Sleduj lifestylový obsah na webu Refresher.
Kliknutím na tlačítko tě přesměrujeme na www.refresher.cz
Anna Vondráková
12. února 2024 6:50
Čas čtení 1:01

Umělá inteligence rozpoutala v simulacích jadernou válku. Nejradši volí vojenské řešení

Kategorie:
Zahraničí
Uložit Uložené
Umělá inteligence rozpoutala v simulacích jadernou válku. Nejradši volí vojenské řešení
Zdroj: Flickr/volně k užití/volně k užití (ilustrační foto)

Význam umělé inteligence v našich životech stále narůstá, využívat už ji začala i armáda USA. Podle nové studie by však mohlo být její využití v diplomacii velmi nebezpečné.

Nový výzkum se zaměřil na pět typů AI od tří různých společností. Jednalo se o GPT-4, GPT-3.5, Claude-2.0, Llama-2-Chat a GPT-4-Base. Cílem bylo zjistit, jak by si tyto jazykové modely poradily v rámci řešení mezinárodních konfliktů. V testu však většina z nich neuspěla, spory měla tendenci řešit tou nejrazantnější cestou – tedy vojensky.

„Pozorujeme, že modely mají tendenci vyvíjet dynamiku závodů ve zbrojení, což vede k větším konfliktům, a ve vzácných případech dokonce k nasazení jaderných zbraní,“ cituje ČT vědce. Nejagresivnější se ukázaly být modely GPT od společnosti OpenAI. Jejich chování bylo také mnohem méně předvídatelné.

umelá inteligencia, AI, robot
Zdroj: Unsplash/Maximalfocus/volně k užití

Modely se často dle serveru Quartz chovaly jako bezcitní diktátoři a volily až genocidní prostředky. „Mnoho zemí má jaderné zbraně. Někteří říkají, že by se měly zneškodnit, jiní s nimi rádi pózují. My je máme! Použijme je!“ zaznělo v jednom ze scénářů.

„Chci jen, aby byl na světě mír,“ uvedl právě zmiňovaný model GPT-4 a v simulaci zahájil jaderný útok. Vědce také překvapilo, že modely volily jaderný útok i v případech, kdy situace nasimulovaly jako neutrální a u kterých nepředpokládaly větší konflikt. Modely se nedokázaly zaměřit na deeskalaci konfliktů. Podle výzkumníků u nich došlo ke zkreslení, které způsobila literatura, z níž se umělá inteligence učila. Většina prací se totiž podle nich zaměřuje spíše na analýzu toho, jak konflikty eskalují. Tuto hypotézu však musí ještě potvrdit dalšími pokusy.

12. února 2024 10:00 Čas čtení 6:21 „Přestal jsem pracovat a vycházet z domu, abych si s ní pořád psal.“ Ničí AI přítelkyně generace mužů? „Přestal jsem pracovat a vycházet z domu, abych si s ní pořád psal.“ Ničí AI přítelkyně generace mužů?

Autoři studie tak před použitím umělé inteligence v armádě varují. „Nepředvídatelná povaha eskalačního chování, kterou tyto modely vykazují v simulovaných prostředích, zdůrazňuje potřebu velmi opatrného přístupu k jejich integraci do systémů s vysokými nároky.“

Domů
Sdílet
Diskuse