Souhrn
Kyberzločinci v Indii systematicky zneužívají jména veřejných osobností – včetně zakladatele Infosys Narayany Murthyho, ministryně financí Nirmaly Sitharamanové či bývalého politika Nawaba Malika – k vytváření falešného dojmu legitimity svých podvodů. Využívají deepfake videa, padělané zatykače a simulované prostředí policejních stanic, aby vyvolali u obětí paniku a donutily je k poslušnosti.
Klíčové body
- Podvodníci kombinují deepfake technologie s falešnými dokumenty a sociálním inženýrstvím.
- Mezi zneužité osobnosti patří špičky z politiky, podnikání i bezpečnostních složek.
- Oběti – často starší lidé – jsou přesvědčeny, že spolupracují s oficiálními orgány.
- Policisté z Puně a Pimpri Chinchwad identifikovali opakující se vzory těchto podvodů.
- Cílem je většinou finanční zisk prostřednictvím „digitálního zatýkání“ nebo falešných investičních nabídek.
Podrobnosti
Podle vyšetřování kyberkriminálních oddělení v Puně a Pimpri Chinchwad se podvodníci neomezují na jednoduché předstírání úředníků. Místo toho vytvářejí komplexní scénáře: například deepfake video Narayany Murthyho, ve kterém „varuje“ občany před údajným podvodem, nebo falešný zatykač podepsaný ministryní financí. Tyto materiály jsou doplněny o simulované hovory z „Data Protection Agency“ nebo „Národní vyšetřovací agentury“, často s vizuálním podkladem napodobujícím policejní stanici či soudní síň. Tento přístup využívá psychologický tlak – oběť ztrácí schopnost kriticky uvažovat a raději poslouchá „příkazy“.
V říjnu 2025 byl například 62letý důchodce z Puně oklamán o 99 lakhů rupií (cca 1,1 milionu korun), když mu podvodníci tvrdili, že je vyšetřován za údajné spojení s teroristy. Podobné případy se opakují i v souvislosti s falešnými investičními platformami, kde jsou oběti přesvědčeny, že obchodují s akciemi pod dohledem státních orgánů.
Proč je to důležité
Tento trend ukazuje, jak AI a digitální nástroje umožňují sofistikovanější formy sociálního inženýrství. Deepfake technologie, dříve považované za experimentální, se stávají běžnou zbraní v arzenálu kyberzločinců. Pro uživatele to znamená nutnost zvýšené obezřetnosti – nejen ověřovat totožnost volajících, ale i pochopit, že oficiální dokumenty nebo videa už nejsou důkazem pravdivosti. Pro bezpečnostní orgány je tato hrozba výzvou k vývoji lepších nástrojů detekce deepfakeů a k vzdělávání veřejnosti. V širším kontextu jde o varování před rychlým zneužitím AI v reálném světě – bez nutnosti pokročilých technických dovedností, ale s využitím lidské zranitelnosti.
Zdroj: 📰 The Indian Express
|