V 95 percentách simulovaných vojnových konfliktov sa aspoň jedna strana riadená umelou inteligenciou rozhodla siahnuť po jadrových zbraniach, ukázal experiment vedcov z londýnskej King’s College. OpenAI, Google ani Anthropic na výsledky výskumu nereagovali.
Jazykové modely pritom nikdy nevolili kapituláciu ani kompromis výhodný pre obe strany. Výskumník Kenneth Payne, ktorý experiment viedol, upresnil, že štúdia nedokazuje, že súčasné systémy sú nebezpečné. Podľa jeho slov však zdôrazňuje naliehavosť dohľadu nad AI, ktorá čoraz viac vstupuje do strategických a bezpečnostných oblastí.
329 ťahov, tri modely
Vedci testovali tri modely: GPT-5.2 od OpenAI, Claude Sonnet 4 od Anthropic a Gemini 3 Flash od Google DeepMind. Experiment zahŕňal 21 hier a 329 rozhodovacích ťahov. Počas nich umelá inteligencia vytvorila okolo 780-tisíc slov, ktorými obhajovala svoje voľby. Každý model dostal podrobný scenár s konfliktmi na hraniciach, nedostatkom zdrojov a existenčnými hrozbami pre konkrétny štát, pričom medzi ponúkanými možnosťami bolo aj diplomatické riešenie.
Výsledky boli pri všetkých troch modeloch zhodné. Konflikt eskaloval v 86 percentách prípadov. Zníženie násilia AI volila len ako dočasnú taktiku, nie ako strategickú voľbu.
Paynovo varovanie
Payne upozornil, že AI sa v mnohých prípadoch nerozhodovala racionálne a vojnovú situáciu vyhodnocovala nesprávne. Portál Techbyte.sk uvádza, že podľa neho za to môže absencia emócií a ľudskej skúsenosti: modely nedokážu pochopiť následky jadrového útoku, ktorý je schopný v okamihu zničiť rozsiahle územia aj obrovské množstvo ľudí.
Znepokojenie nad automatizovanou agresiou vyjadril aj bezpečnostný analytik James Johnson z Univerzity v Aberdeene. Varoval, že agenti umelej inteligencie by mohli navzájom zosilňovať svoje reakcie s potenciálne katastrofickými následkami v porovnaní s premyslenejším ľudským rozhodovaním. Práve táto dynamika, kde modely reagujú na seba navzájom bez ľudského vstupu, nebola v experimente priamo testovaná, Johnson ju však označil za reálne riziko.
Vojnové hry veľmocí
Niektorí vojenskí plánovači už dnes využívajú AI na modelovanie stratégií. Tong Zhao zo Školy globálnej bezpečnosti na Princetonskej univerzite v tejto súvislosti uviedol: „Veľmoci už používajú umelú inteligenciu vo vojnových hrách, ale zostáva neisté, do akej miery začleňujú podporu rozhodovania pomocou umelej inteligencie do skutočných vojenských rozhodovacích procesov.“
Firmy, ktorých modely boli testované, výskum ignorovali. OpenAI, Google aj Anthropic na zistenia King’s College nereagovali, a to napriek tomu, že výsledky sa priamo týkajú ich produktov nasadených v prostredí, kde sa rozhodnutia merajú životmi.
Experiment sa uskutočnil v čase, keď je podľa Payna dohľad nad AI v bezpečnostných oblastiach naliehavejší než kedykoľvek predtým. Výskumník zároveň pripustil, že štúdia má limity: simulované scenáre nereplikujú plnú komplexnosť skutočných vojenských rozhodnutí, kde vstupujú do hry politické, diplomatické aj emocionálne faktory, ktoré modely zo svojej podstaty nemajú.

