V Pátek 27. února 2026 v 17:01 středoevropského času vypršelo ultimátum Pentagonu firmě Anthropic. Požadavek armády byl prostý: vzdejte se etických omezení, nebo budete vyřazeni. Vedení Anthropicu odmítlo.
A tak jen pár hodin před tím, než první izraelská a americká letadla zahajovala operaci „Epic Fury“ nad Íránem publikoval prezident Trump na Truth Social příspěvek označující firmu Anthropic za „radikální levičáky“ a nařizoval všem federálním agenturám okamžitě přestat používat její technologie. Nastala tak doslova kafkovská situace: Kdesi v řídících centrech v Perském zálivu dál běžel Claude – integrovaný do systému Maven Smart System od Palantiru, který z utajovaných satelitních dat, zachycené komunikace a zpravodajských zdrojů generoval v reálném čase seznamy cílů, jejich přesné souřadnice a pořadí priorit. Trump zakázal nástroj, který jeho generálové odmítali vyřadit ze svých systémů.
Ne, ani v Anthropicu nejsou svatí – firma na požadavek Pentagonu na „neomezené využití pro veškeré zákonné účely“ přistoupila (dle NPR) z asi 98–99 %. Na stole zůstaly jen dvě výjimky: žádné plné autonomní zbraňové systémy a žádné masové sledování amerických občanů. Pentagon tyto výjimky odmítl jako nezvládnutelné. Argumentoval tím, že v horizontu dvaceti let nelze předvídat všechna budoucí použití AI a armáda volné ruce například pro roje ozbrojených dronů (pozn. red. kolik je to let co jsme o nich hovořili v naší přednášce na konferenci CACIO? Čtyři, pět?) nebo program „Zlatá kopule“ pro kosmickou obranu. „Výjimky nefungují,“ citoval vedení Pentagonu například Newschannel.
📩 Odebírejte ZDARMA náš týdeník Inside Observer.
Co přesně jsou plně autonomní zbraně? Jde o systémy, které po zadání úkolu a aktivaci samostatně provádějí vojenské operace bez lidského zásahu (potvrzení) – pomocí senzorů, kamer, radarů a AI algoritmů vyhledávají, vybírají a ničí cíle. Klíčovým rizikem je řetězec „senzor-AI-interpretace-výběr cíle-aktivace zbraně“ v němž již není žádný lidský kontrolní mechanismus.
Ono jedno či dvě procenta „nevyhovění“ požadavkům Pentagonu se může zdát jako detail, posledních 75 let ale ukázalo, že přesně ona mohou být rozdílem mezi životem a vyhlazením. Výzkumy přitom ukázaly, že pokročilé AI modely ve válečných simulacích sáhly v krajní situaci po jaderných zbraních v 95 % případů. Analytici zároveň upozorňují na znepokojivý podtext: Pentagon mohl tyto dvě aktivity smluvně velmi snadno vyjmout – pokud to odmítl, lze z toho vyvozovat, že je skutečně hodlá využívat. Podobně jako další schopnosti Claude či jiných AI modelů.
Zaujal Vás tento článek?