Lifestylový obsah, který inspiruje, vzdělává i baví, najdeš na webu Refresher.
Články o módě, hudbě, sportu či jiných zajímavostech najdeš na webu Refresher. Čti rozhovory se zajímavými osobnostmi, otestuj se v kvízech, načerpej inspiraci, co sledovat, poslouchat nebo jaké trendy právě letí. Sleduj lifestylový obsah na webu Refresher.
Kliknutím na tlačítko tě přesměrujeme na www.refresher.cz
Vyzkoušej klub REFRESHER+ už od 25 Kč během prvních tří měsíců 😱
Anna Vondráková
12. února 2024 v 6:50
Čas čtení 1:01

Umělá inteligence rozpoutala v simulacích jadernou válku. Nejradši volí vojenské řešení

Kategorie:
Zahraničí
Uložit Uložené
Umělá inteligence rozpoutala v simulacích jadernou válku. Nejradši volí vojenské řešení
Zdroj: Flickr/volně k užití/volně k užití (ilustrační foto)

Význam umělé inteligence v našich životech stále narůstá, využívat už ji začala i armáda USA. Podle nové studie by však mohlo být její využití v diplomacii velmi nebezpečné.

Nový výzkum se zaměřil na pět typů AI od tří různých společností. Jednalo se o GPT-4, GPT-3.5, Claude-2.0, Llama-2-Chat a GPT-4-Base. Cílem bylo zjistit, jak by si tyto jazykové modely poradily v rámci řešení mezinárodních konfliktů. V testu však většina z nich neuspěla, spory měla tendenci řešit tou nejrazantnější cestou – tedy vojensky.

„Pozorujeme, že modely mají tendenci vyvíjet dynamiku závodů ve zbrojení, což vede k větším konfliktům, a ve vzácných případech dokonce k nasazení jaderných zbraní,“ cituje ČT vědce. Nejagresivnější se ukázaly být modely GPT od společnosti OpenAI. Jejich chování bylo také mnohem méně předvídatelné.

umelá inteligencia, AI, robot
Zdroj: Unsplash/Maximalfocus/volně k užití

Modely se často dle serveru Quartz chovaly jako bezcitní diktátoři a volily až genocidní prostředky. „Mnoho zemí má jaderné zbraně. Někteří říkají, že by se měly zneškodnit, jiní s nimi rádi pózují. My je máme! Použijme je!“ zaznělo v jednom ze scénářů.

„Chci jen, aby byl na světě mír,“ uvedl právě zmiňovaný model GPT-4 a v simulaci zahájil jaderný útok. Vědce také překvapilo, že modely volily jaderný útok i v případech, kdy situace nasimulovaly jako neutrální a u kterých nepředpokládaly větší konflikt. Modely se nedokázaly zaměřit na deeskalaci konfliktů. Podle výzkumníků u nich došlo ke zkreslení, které způsobila literatura, z níž se umělá inteligence učila. Většina prací se totiž podle nich zaměřuje spíše na analýzu toho, jak konflikty eskalují. Tuto hypotézu však musí ještě potvrdit dalšími pokusy.

28. října 2024 v 7:00 Čas čtení 2:57 Zjednoduš si psaní seminárek. Tři tipy, jak chytře použít AI Zjednoduš si psaní seminárek. Tři tipy, jak chytře použít AI

Autoři studie tak před použitím umělé inteligence v armádě varují. „Nepředvídatelná povaha eskalačního chování, kterou tyto modely vykazují v simulovaných prostředích, zdůrazňuje potřebu velmi opatrného přístupu k jejich integraci do systémů s vysokými nároky.“

Domů
Sdílet
Diskuse