📰 Associated Press

Tesla dostala pět týdnů prodlení v americkém vyšetřování technologie Full Self-Driving

Tesla dostala pět týdnů prodlení v americkém vyšetřování technologie Full Self-Driving

Souhrn

Americká Národní správa pro bezpečnost silničního provozu (NHTSA) udělila Tesle pět týdnů prodlení na odpověď na obvinění, že její vozidla v režimu Full Self-Driving (FSD) porušovala dopravní předpisy, jako prejíždění na červenou nebo jízdu špatným směrem. Vyšetřování zahájené v říjnu nyní zahrnuje 62 stížností a pokrývá 2,9 milionu vozidel. Tesla má čas do 23. února 2026.

Klíčové body

  • NHTSA rozšířila vyšetřování z 58 na 62 incidentů, včetně nehod s úrazy.
  • Tesla FSD, software pro autonomní řízení, je kritizován za zavádějící název, který vede řidiče k předčasné důvěře.
  • Tesla tvrdí, že systém vyžaduje stálou pozornost řidiče a varuje před plnou autonomií.
  • Vyšetřování se týká prakticky všech Tesel s FSD od roku 2016.
  • Regulační orgán hlásí, že řidiči často nedostali varování před chybným chováním vozidla.

Podrobnosti

Vyšetřování NHTSA proti Tesle bylo zahájeno v říjnu 2025 po shromáždění desítek zpráv o incidentech, kde vozidla v režimu FSD, což je pokročilý software pro autonomní řízení využívající kamerové systémy a neuronové sítě k navigaci, projížděla na červenou světlo, jela špatným směrem nebo dokonce narazila do jiných vozidel a způsobila zranění. Tento software, který Tesla propaguje jako nejpokročilejší na trhu, umožňuje vozidlům jako Model Y nebo Model 3 autonomní manévry na dálnicích i městských silnicích, ale stále vyžaduje dohled řidiče. Kritici, včetně bezpečnostních expertů, poukazují na to, že název “Full Self-Driving” je zavádějící, protože systém nedosahuje úrovně SAE Level 4 nebo 5 plné autonomie bez zásahu člověka, což vede k přílišné důvěře uživatelů.

V dopise z 3. prosince 2025 NHTSA informovala Teslu o navýšení počtu stížností z původních 58 na 62. Tesla, vedená Elonem Muskem, v odpovědích regulačním orgánům i soudům opakovaně zdůrazňuje, že FSD není plně autonomní a řidič musí být neustále připraven zasáhnout – tato skutečnost je podtržena v uživatelském manuálu i varováními na displeji. Přesto mnoho řidičů zapojených do nehod uvedlo, že systém nereagoval varováním před neočekávaným chováním, jako náhlé zrychlení nebo ignorování dopravních značek. Vyšetřování nyní zahrnuje 2,9 milionu vozidel vyrobených od roku 2016, což představuje většinu flotily s FSD hardwarem. Tesla požádala o prodlení kvůli potřebě shromáždit data z flotily, která využívá k tréninku neuronových sítí pomocí telemetrie z milionů kilometrů jízdy. Tento přístup, založený na datech z reálného světa, je klíčový pro zlepšování FSD, ale zároveň zvyšuje riziko, pokud algoritmy selžou v edge casech, jako jsou nejasné světelné pomůcky nebo nečekané překážky.

Proč je to důležité

Toto vyšetřování má široké dopady na průmysl autonomních vozidel, kde Tesla FSD představuje největší nasazenou flotilu pro sběr dat, což jí dává konkurenční výhodu oproti Waymo nebo Cruise, kteří testují v omezených zónách. Pokud NHTSA prokáže systémové chyby, mohlo by to vést k povinným aktualizacím software, omezení funkcí nebo dokonce stažení z trhu, což by zpomalilo vývoj robotaxi služeb, které Tesla plánuje. Pro uživatele to znamená nutnost zvýšit ostražitost při používání FSD, protože současná verze (např. FSD 12.x) stále trénuje na datech a nedosahuje spolehlivosti potřebné pro komerční nasazení bez dohledu. V širším kontextu to podtrhuje napětí mezi rychlým nasazením AI v bezpečnostních kritických systémech a regulačními požadavky, což ovlivní i evropské normy jako UNECE WP.29. Dlouhodobě by úspěšné vyřešení mohlo posílit důvěru v autonomní technologie, zatímco selhání by způsobilo zpětný krok v adopci.


Číst původní článek

Zdroj: 📰 Associated Press