📰 RT

Pentagon použil Claude AI k zatčení Madura – média

Pentagon použil Claude AI k zatčení Madura – média

Souhrn

Americká armáda použila model umělé inteligence Claude od společnosti Anthropic přímo během smrtelné razie ve Venezuele, která měla za cíl zatknout prezidenta Nicoláse Madura. Podle zpráv Axios a Wall Street Journal došlo k porušení firemních zásad Anthropic, které zakazují použití technologie pro násilí, vývoj zbraní nebo sledování. Role modelu Claude v operaci zůstává nejasná, ale naznačuje reálné nasazení AI v bojových podmínkách.

Klíčové body

  • Pentagon nasadil Claude AI aktivně během samotné operace, nejen v přípravě.
  • Anthropic, kalifornská firma specializující se na bezpečné modely velkých jazykových modelů (LLM), má politiky explicitně zakazující vojenské aplikace.
  • Armáda dříve používala AI pro analýzu satelitních snímků a zpravodajských dat v reálném čase.
  • Zprávy vycházejí z Axios a Wall Street Journal, publikované v pátek.
  • Operace proběhla minulý měsíc, s vazbami na vrcholové představitele jako Donald Trump, Pete Hegseth a John Ratcliffe.

Podrobnosti

Společnost Anthropic, založená v San Franciscu bývalými výzkumníky OpenAI, se profiluje jako lídr v bezpečném vývoji AI. Její model Claude, konkurent GPT od OpenAI nebo Gemini od Google, je navržen s důrazem na “safeguards” – bezpečnostní mechanismy, které mají bránit zneužití. Tyto mechanismy zahrnují omezení na požadavky, které by mohly vést k násilí, vývoji zbraní nebo masovému sledování. Například Claude odmítá generovat instrukce pro sestavení výbušnin nebo plánování útoků. Přesto, podle zpráv, americká armáda tento model použila během operace v Venezuele, která skončila smrtelnými oběťmi a pokusem o zatčení Madura.

Axios a Wall Street Journal uvádějí, že Claude nebyl omezen na předoperační fázi, jako je plánování nebo simulace, ale byl nasazen v reálném čase. Armáda má zkušenosti s AI: dříve sloužily modely k automatické analýze satelitních snímků pro detekci pohybu, rozpoznávání vozidel nebo predikci chování protivníků na základě zpravodajských dat. V tomto případě by Claude mohl pomáhat s okamžitou interpretací dat z dronů, optimalizací trasy jednotek nebo dokonce generováním taktických doporučení. Žádné detaily o přesném nasazení nejsou známy, což vyvolává otázky o tom, jak byly obejdeny bezpečnostní filtry – možná speciálně upravenou verzí modelu nebo nepřímým použitím.

Venezuela je dlouhodobě terčem americké zahraniční politiky kvůli sankcím a kritice Madurova režimu. Operace, zmíněná v kontextu administrativy Donalda Trumpa s ministryní Pete Hegsethem (přezdívaným Secretary of War) a ředitelem CIA Johnem Ratcliffem, podtrhuje eskalaci. RT.com, který článek publikoval, často cituje západní zdroje, ale s ruským úhlem pohledu, což naznačuje geopolitickou motivaci zprávy.

Proč je to důležité

Toto odhalení představuje průlomový moment v debatě o vojenském nasazení AI. Anthropic, který sbírá miliardy na vývoj bezpečných systémů, evidentně nedokázal zabránit zneužití své technologie státními aktéry. To oslabuje důvěru v soukromé safeguardy a zdůrazňuje nutnost regulací na úrovni vlády, jako je navrhovaný AI Act v EU nebo exportní kontroly v USA. Pro průmysl znamená riziko: vojenské zakázky mohou převážit etické standardy, což urychlí závod v zbrojení AI mezi USA, Čínou a Ruskem. Uživatelé a vývojáři budou nyní více skeptičtí k claimům o bezpečnosti LLM, protože reálné nasazení v konfliktech může vést k eskalaci chyb – například špatné identifikaci cílů. V širším ekosystému to posiluje argumenty za otevřený zdroj AI, kde komunita může auditovat safeguardy, oproti uzavřeným modelům jako Claude.


Číst původní článek

Zdroj: 📰 RT