Päťsto osemdesiat zamestnancov Googlu podpísalo protestný list ešte pred tým, ako firma v apríli podpísala utajovanú zmluvu s Pentagónom, ktorá umožňuje americkému ministerstvu obrany využívať AI technológie spoločnosti na akýkoľvek zákonný vládny účel, informoval The Information. Google sa tak zaradil po boku OpenAI a xAI, ktoré majú s armádou podobné dohody.
Zamestnanci vo svojom liste označili vojenské využitie AI za „neľudské a mimoriadne škodlivé“ a priamo sa odvolali na rok 2018, keď Google vstúpil do Projektu Maven, vojenského programu amerického letectva na analýzu dronových záberov a identifikáciu cieľov. Vtedy viac ako štyritisíc zamestnancov podpísalo interný protestný list, asi tucet rezignovalo a vedenie nakoniec nechalo zmluvu vypršať. Firma prijala Etické princípy AI, záväzok, že jej technológia nebude používaná pre zbrane ani masové sledovanie. Terajší protest to komentuje stručne: „Maven nie je za nami. Boj pokračuje.“
Gemini, DeepMind, TPU
Tentokrát nejde o jeden kontrakt na konkrétnu úlohu. Podľa The Next Web sa protestujúci zamestnanci obávajú, že celý technologický stack Googlu, vrátane modelov Gemini, výskumného oddelenia DeepMind a čipov TPU, sa stane súčasťou vojenskej infraštruktúry na utajovaných sieťach, kde nikto mimo Pentagónu nevidí, ako sa s ním nakladá. Formulácia „akýkoľvek zákonný vládny účel“ pritom neobmedzuje využitie na konkrétne operácie ani systémy, ale otvára priestor od spravodajskej analýzy cez strategické plánovanie až po podporu rozhodovacích procesov v bojových situáciách, referuje The Verge.
Google stavia na argumente, že účasť mu dáva viac kontroly nad nasadením vlastných modelov, než keby zostal bokom.
OpenAI, Anthropic a 200 miliónov
OpenAI podpísala zmluvu s ministerstvom obrany v hodnote 200 miliónov dolárov v júni minulého roku. Modely budú nasadené na utajovanej vojenskej sieti výlučne cez cloud, nie priamo na bojových zariadeniach. CEO Sam Altman na sieti X uviedol dve hranice, ktoré si firma vyhradila: zákaz využitia na masové domáce sledovanie a zachovanie ľudskej zodpovednosti pri rozhodovaní o použití sily vrátane autonómnych zbraní. Podľa Japan Times dosahujú zmluvy Pentagónu s kľúčovými AI firmami hodnotu až 200 miliónov dolárov za každú jednu, pričom xAI Elona Muska má tiež uzavretú utajovanú dohodu.
Anthropic zvolil iný postup. Odmietol požiadavky Pentagónu na odstránenie ochranných mechanizmov týkajúcich sa zbraní a sledovania, čo vyústilo do verejného sporu s ministerstvom obrany. Americká vláda následne označila Anthropic za bezpečnostné riziko. Práve na pozadí tohto sporu vyniká, akú cenu za odmietnutie zaplatil jediný veľký hráč, ktorý povedal nie.
Jadrové hrozby v 95 percentách
Kritici vojenského nasadenia AI poukazujú na vlastnosti jazykových modelov, ktoré ich robia pre bojové použitie nebezpečnými. Generatívne modely produkujú vierohodne znejúce odpovede, ktoré sú fakticky nesprávne, a pôsobia sebaisto aj vtedy, keď by mali byť opatrné. Výskum citovaný portálom TechRadar ukázal, že AI modely nasadené do simulácií vojnových hier volili jadrové hrozby ako štandardnú stratégiu v 95 percentách prípadov.
Priaznivci vojenského využitia AI argumentujú, že lepšia spravodajská analýza a rýchlejšie spracovanie informácií znižujú neistotu a môžu zabrániť zbytočným stratám. No otázka zodpovednosti zostáva nezodpovedaná: model poskytne analýzu, operátor ju interpretuje, inštitúcia na základe nej koná. Každý krok je prepojený, žiaden z nich plne nevlastní výsledok.
„Zákonný“ verzus „etický“
Portál Techbyte.sk upozorňuje na posun, ktorý presahuje jednotlivé zmluvy. Doposiaľ hranice etického využitia AI stanovovaly samotné firmy prostredníctvom interných smerníc. Tieto hranice sa teraz prenášajú do zmlúv s vládou, kde ich obsah určuje ministerstvo obrany a americký Kongres. Slovo „zákonný“ nahrádza slovo „etický.“ Nie sú to synonymá.
Keď jeden veľký hráč akceptuje formuláciu „akýkoľvek zákonný vládny účel,“ ostatní čelia tlaku buď nasledovať, alebo riskovať stratu pozície na kľúčovom trhu. Anthropic to vyskúšal. Skončil na zozname bezpečnostných rizík.

