Roma, 13/02/2026
Roma, 13/02/2026

Guida assistita, rischi reali: Tesla a un passo dal recall

11

Quasi 2,9 milioni di veicoli Tesla sotto la lente. L’authority contesta violazioni del codice (semafori rossi e manovre errate) con incidenti e feriti. Possibile recall, rischi legali e un test sistemico per l’intera filiera

La National Highway Traffic Safety Administration (NHTSA) ha aperto una preliminary evaluation su circa 2,88 milioni di Tesla equipaggiate con Full Self-Driving (FSD), dopo segnalazioni di violazioni alle norme di circolazione e una serie di crash agli incroci. Al centro del fascicolo: passaggi con il rosso, cambi di corsia contro il senso di marcia e un sistema che — pur “assistito” e non autonomo — avrebbe indotto comportamenti illegali su strada. Se l’agenzia rileverà un “rischio irragionevole”, la fase successiva può essere un richiamo (anche via aggiornamento software).

Che cosa indaga l’authority e quali sono i numeri chiave

La NHTSA documenta oltre 50 segnalazioni di condotte non conformi con FSD attivo, tra cui sei incidenti in cui l’auto avrebbe oltrepassato un incrocio con luce rossa ed è rimasta coinvolta in collisioni; quattro di questi eventi hanno prodotto feriti. L’Office of Defects Investigation cita, inoltre, 18 reclami e una segnalazione su soste incomplete o errata identificazione dei segnali semaforici nell’interfaccia veicolo. Tesla, al momento, non ha commentato. Il perimetro di veicoli interessati copre di fatto l’intera flotta statunitense dotata di FSD.

Dal “driver assist” al “rischio irragionevole”: dove passa la linea di responsabilità

FSD è formalmente un sistema di assistenza: richiede supervisione attiva e prontezza d’intervento del guidatore. Giuridicamente, però, la domanda non è se l’auto “si guida da sola”, ma se l’algoritmo — nelle condizioni d’uso previste — induca pattern di guida che violano le norme e aumentano il rischio. Se la risposta è positiva, scatta la catena PE → Engineering Analysis → Recall. Non è un caso isolato: nell’ottobre 2024 l’agenzia aveva già aperto un’inchiesta su 2,4 milioni di Tesla per la gestione della visibilità ridotta (bagliore solare, nebbia, polveri) con un sinistro fatale.

La procedura: fasi, dati richiesti e possibili esiti

La preliminary evaluation consente a NHTSA di acquisire log, versioni software, condizioni d’ingaggio e metriche HMI. L’obiettivo è stabilire se esista un difetto di progettazione, implementazione o comunicazione all’utente. In caso di criticità sistemiche, l’inchiesta passa a Engineering Analysis; l’esito può essere un richiamo obbligatorio o un remedy OTA concordato (patch via rete) con monitoraggio post-rilascio per misurare il delta di rischio dopo l’aggiornamento. L’equiparazione del software a un componente di sicurezza è ormai una prassi consolidata.

Il nodo tecnico: percezione, pianificazione, interfaccia

Le condotte contestate coinvolgono tre strati della pila autonoma. Percezione: robustezza nella lettura dei semafori e nella classificazione degli stati in condizioni “sporche” (bagliori, occlusioni, pioggia). Pianificazione: logiche di precedenza e cambio corsia sufficientemente conservative in ambienti caotici. HMI: chiarezza del pre-annuncio dell’“intenzione” dell’algoritmo, perché l’umano abbia il tempo di intervenire. Quando il naming commerciale (Full Self-Driving) e l’ergonomia producono over-trust, l’utente può sopravvalutare le capacità del sistema, con un salto dalla supervisione alla delegazione totale: è qui che nascono i rischi più insidiosi.

Marketing e diritto: il lessico che crea affidamento

La vicenda riapre tre dossier giuridici. Etichettatura commerciale: un naming come “Full Self-Driving” può ingenerare affidamenti non compatibili con la natura di ADAS? Disclosure: manuali, onboarding e messaggi in-car descrivono correttamente limiti e comportamenti attesi? Dovere di diligenza: ha senso rilasciare funzioni in beta su larga scala senza un sistema di astensione aggressivo agli scenari ad alto rischio (incroci, passaggi a livello)? La pressione politica è crescente: nelle scorse settimane due senatori hanno chiesto di indagare la risposta di FSD ai railroad crossings.

Impatto industriale e finanziario: margini software e sensibilità regolatoria

Un correttivo su una popolazione di quasi 2,9 milioni di veicoli ha costi non banali: ingegnerizzazione, validazione, campagna informativa e potenziali limitazioni temporanee delle funzioni. Ogni patch che irrigidisce le policy riduce nell’immediato la perceived autonomy e può incidere sul valore commerciale del pacchetto FSD (abbonamenti e attivazioni). Non a caso, gli eventi regolatori tendono a riflettersi sul titolo TSLA, con aggiustamenti ai multipli che scontano margini “software-like”.

Precedenti e contesto internazionale: standard che si alzano

La NHTSA non agisce nel vuoto. La sequenza di inchieste su FSD (2024 e 2025) costruisce un precedente che può alzare l’asticella per tutti i player ADAS/AV, anche fuori dagli USA. In Europa, la combinazione UN-ECE e norme ISO su sicurezza funzionale e Safety of the Intended Functionality impone già paletti severi a omologazioni e OTA. Un giro di vite americano sull’affidabilità agli incroci o sul triage di rischio avrebbe ricadute regolatorie transatlantiche, accelerando la convergenza verso policy più caute.

Che cosa può accadere adesso: tre traiettorie operative

Nel breve periodo, gli scenari sono tre. (1) Remedy OTA mirato su lettura semaforica, heuristics di precedenza e messaggistica HMI più prescrittiva (fino alla riduzione del tempo di hand-over). (2) Estensione del perimetro agli incroci non protetti e ai railroad crossings se nuove evidenze lo giustificano. (3) Passaggio a Engineering Analysis se i dati forniti da Tesla non risultano convincenti. In ogni caso, l’agenzia valuterà non solo il fix, ma l’efficacia misurata sul campo.

Lezioni per l’ecosistema: misure che contano, non slogan

Per gli addetti ai lavori la svolta è metrica. Non bastano le “miglia autonome”: servono tassi di astensione corretta (quando il sistema rifiuta o cede il controllo), statistiche di near-miss agli incroci, latenza di pre-avviso HMI, e coerenza post-patch. La trasparenza — versioning pubblico delle patch rilevanti, note tecniche, log anonimi condivisibili con l’authority — sta diventando un vantaggio competitivo almeno quanto i parametri dei modelli di rete.

La vera autonomia è saper dire “no”

L’auto “intelligente” non è quella che fa di più, ma quella che sa quando non fare. Se l’inchiesta NHTSA porterà a policy più caute agli incroci, a HMI più oneste e a metriche di sicurezza che misurano l’astensione e non solo la performance, l’intero settore uscirà più solido. Per Tesla come per i concorrenti, la sfida non è accelerare il marketing dell’autonomia, ma costruire fiducia misurabile. È l’unico capitale che trasforma il software di guida in infrastruttura di mobilità, non in promessa pubblicitaria

Related Posts