Pare che il sistema di guida autonoma di Tesla abbia qualche problema con i bambini. Infatti, secondo un test di sicurezza condotto da The Dawn Project, l’ultima versione del software dell’auto di Elon Musk avrebbe investito diverse volte un manichino simile a un bambino.
Un’organizzazione per la guida sicura ha affermato, in seguito a quanto osservato nel test, che il software di Tesla rappresenta una minaccia potenzialmente letale per i bambini. Infatti, parrebbe che la tecnologia di Tesla abbia grosse difficoltà a riconoscerli.
L’accaduto si aggiunge così alle numerose perplessità scatenate dalle auto di Elon Musk negli scorsi mesi. Tutto ciò emerso finora dalle indagini fa parte anche di una campagna pubblicitaria che ha l’obiettivo di mettere pressione al Congresso americano. Infatti, l’intenzione dei sostenitori di tale campagna è quella di chiedere al Congresso di bandire la tecnologia di guida autonoma completa di Tesla.
Il test incriminato e le misure richieste contro Tesla
Tesla che prendono fuoco, che esplodono, che investono persone o che causano incidenti. Negli ultimi mesi si è sentito veramente di tutto sulle auto di Elon Musk. Stavolta, il fondatore di The Dawn Project ha voluto testare personalmente l’auto.
Così, è stato condotto l’esperimento in cui è stato scoperto che il software rilasciato a giugno dall’azienda di Musk non riesce a rilevare le sembianze di un bambino. L’auto del test viaggiava a 40 km/h, e ha colpito il manichino in pieno. In diverse prove.
Dan O’Down, colui che ha deciso di condurre il test, ha detto del risultato:
“Elon Musk dice che il software Full-Self-Driving di Tesla è fantastico. Non lo è: è una minaccia per tutti gli americani. Più di 100 mila conducenti di Tesla stanno già utilizzando il software sulle strade. Mettono i bambini a grande rischio in tutte le comunità del paese.
O’Down ha proposto che vengano vietate le auto a guida autonoma completa finché Elon Musk non proverà che i suoi veicoli “non falceranno i bambini sulle strisce pedonali”.
Finora, Tesla ha sempre respinto le affermazioni che definivano la sua tecnologia troppo poco matura. Infatti, l’azienda di Musk ha risposto ogni volta garantendo la sicurezza dei passeggeri o delle altre persone sulla strada.
Dopo un violento incidente in Texas nel 2021 che ha ucciso due persone, Musk ha twittato che la funzione di pilota automatico, una versione meno sofisticata di quella attuale, non era attiva al momento della collisione.
All’assemblea degli azionisti della società all’inizio di questo mese, Musk ha affermato che la guida autonoma è notevolmente migliorata e prevede di rendere il software disponibile entro la fine dell’anno a tutti i proprietari che lo richiederanno. Ma le domande sulla sua sicurezza continuano a crescere.
Intanto, la National Highway Traffic Safety Administration (NHTSA) degli Stati Uniti ha confermato che “al momento ha un’indagine aperta e attiva sul sistema di assistenza alla guida attiva del pilota automatico di Tesla”.
Fonte: The Guardian