Pubblicato il 22/01/21

CATTIVI ESEMPI L'ultimo pessimo esempio arriva dagli USA, dove la madre di un ragazzino lo ha filmato mentre lui finge di dormire al posto di guida di una Tesla, mentre questa viaggia da sola, condotta dal sistema di guida assistita Autopilot. Successivamente il ragazzino, sempre con l'auto in movimento lungo l'autostrada, attraversa l'abitacolo per andare dietro, dove sui sedili posteriori reclinati ha allestito una sorta di letto. La madre, dal sedile del passeggero, filma e ride. Lo scopo di tutto ciò? Andare a caccia di Like con un video su TikTok. Personalmente mi rifiuto di condividere le immagini e dare ulteriore visibilità a simili im...prudenze. Ma indignarsi e puntare il dito contro la diffusione di messaggi sbagliati è necessario, perché si fa tanto per la sicurezza, ma mai abbastanza contro l'imperizia o la suerficialità di chi sta al volante. E contro i cattivi esempi.

 Tesla Autopilot, NON un sistema di guida autonoma

DANNOSI COME LE FAKE NEWS È di questi giorni l'agghiacciante notizia che una sfida lanciata sul social TikTok ha avuto tragiche conseguenze in Sicilia. Episodi come questo dovrebbero far riflettere: la censura di determinati contenuti è una problematica delicatissima perché confligge con la libertà di espressione, ma che tuttavia va affontata. Anche quando riguarda cattivi esempi al volante e non solo per quanto riguarda messaggi e fake news che abbiano ripercussioni sul mondo politico, come richiesto dalla Presidente della Commissione Europea Ursula Von Der Leyen nel suo ultimo discorso al Parlamento Europeo, in occasione dell'insediamento del Presidente degli Stati Uniti Joe Biden. L'assalto a Capitol Hill ha fatto cinque vittime e un danno di immagine enorme, ma i casi di giovani che hanno perso la vita - anche sulla strada - per messaggi sbagliati veicolati dai social sono molti di più. Messaggi come quello che la guida semi-autonoma promessa da Tesla Autopilot possa essere utilizzata ben oltre i limiti raccomandati da Tesla stessa.

Tesla Model 3: test di frenata automatica con individuazione del pedone condotto dall'americana AAA

UTENTI COME TEST DUMMIES Che il nome Autopilot fosse fuorviante è stato sancito da un tribunale di Monaco di Baviera e da un'agenzia inglese che si occupa di sicurezza stradale. Certo, il colosso americano che ha fatto fortuna con le auto elettriche non è al disopra di ogni sospetto quanto a suggerire che il suo sistema di guida assistita offra livelli di affidabilità e sicurezza superiori a quelli reali. Da un lato i troppi tweet propagandistici di Elon Musk, secondo cui Autopilot era già più affidabile di un guidatore in carne e ossa nel 2016 (vedasi il tweet in fondo all'articolo); dall'altro i test di enti certificati come la AAA americana, che nel 2019 dimostrava la fallibilità del sistema e, purtroppo, la lunga lista di incidenti mortali causati da utenti troppo fiduciosi. D'accordo, la tecnologia va avanti, ma la prassi del colosso americano di far fare agli utenti da beta-tester per le sue auto è nota: una condotta spregiudicata contro le cui conseguenze Tesla si difende a suon di disclaimer. Come nel caso di Autopilot con guida autonoma ''completa'' lanciato lo scorso ottobre: in versione Beta, naturalmente.


TAGS: tesla guida autonoma tesla autopilot tiktok