AUTONOMA E A IDROGENO - La Hyundai Nexo non è solo la più recente vettura a celle a combustibile della casa coreana, ma anche la piattaforma sulla quale viene studiata la guida autonoma. Durante il nostro viaggio in Corea, dove abbiamo potuto guidare il modello di serie (vedi qui il primo contatto), abbiamo avuto anche l’occasione di essere passeggeri di un prototipo capace di una guida autonoma di livello 4. Ciò vuol dire che l’auto è in grado di muoversi in autonomia su percorsi di qualunque tipo, purché mappati con sistemi in alta definizione. Una vettura gemella ha recentemente percorso i 190 km che separano la capitale, Seoul, dalla cittadina di Pyeongchang, sede delle Olimpiadi invernali 2018.
SENSORI DI RISERVA - Da fuori, la vettura è praticamente identica al modello di serie: spiccano solo i sei Lidar (dispositivi simili al radar, ma funzionanti su base laser, che permettono non solo di calcolare la distanza dagli oggetti, ma anche di determinarne la forma) nei paraurti e altri sensori. A questi si aggiungono il radar frontale, l’antenna Gps e la telecamera frontale (tre elementi già presenti nella Nexo di serie), due radar che monitorano la zona posteriore e laterale, altrettante telecamere sotto gli specchietti e una di tipo stereoscopico dietro il parabrezza: dotata di due obiettivi affiancati, e capace di percepire la profondità, proprio come i nostri occhi, viene usata solo come sistema di riserva in caso altri sensori smettano di funzionare.
BASTA UN NORMALE PC - Per gestire la mole di dati prodotti da tutti questi sensori, però, non si creda che serva una mostruosa potenza di calcolo. Parlando con i tecnici della Hyundai, infatti, è emerso che la Nexo del test riesce a muoversi da sola usando un semplice computer casalingo di fascia alta (il processore è un Intel della famiglia i7), ospitato nel baule. Ciò è possibile anche grazie alla connessione al web di tipo 5G, lo standard di trasmissione su reti cellulari più recente, non ancora disponibile per il mercato di massa: su questo canale viaggiano le indicazioni che arrivano dai semafori “intelligenti” e dalle altre infrastrutture dotate di sensori, che quindi non devono essere “lette” dai sensori e poi interpretate dal software.
IN VENDITA DAL 2021 - Proprio una regolare e costante connessione di questi elementi alla rete internet dovrà essere realizzata prima che la vettura della casa coreana possa essere messa in vendita: la Hyundai prevede di farlo già nel 2021, ma con una guida autonoma di livello 4, funzionante solo in alcune grandi città già “intelligenti”. Entro il 2030, invece, si prevede di arrivare alla commercializzazione di una vettura di livello 5 (capace, quindi, di guidare da sola in qualunque condizione, anche in zone non mappate, senza segnale Gps e senza collegamento al web).
UNA GUIDA TRANQUILLA - Escludendo uno schermo aggiuntivo che mostra ciò che la vettura “vede” sulla strada, l’abitacolo di questo prototipo è sorprendentemente “normale” e pressoché identico a quello del modello di serie. Al volante c’è un tecnico della Hyundai, pronto ad intervenire in caso di problemi e incaricato di avviare il sistema di guida autonoma in un punto predefinito del percorso: dato che la vettura richiede mappe in alta definizione per poter funzionare, il tragitto è stato prestabilito e mappato ad hoc in precedenza. Il sistema di guida si attiva con un pulsante: non serve fare altro. Da qui in poi, la vettura sterza, frena e accelera in autonomia seguendo il codice della strada e adeguandosi alle condizioni del traffico. Vedere il volante che ruota da solo fa ancora una certa impressione, ma le manovre vengono compiute con dolcezza e si procede senza strattoni o sterzate improvvise. L’auto segue precisa il centro della corsia ma non effettua sorpassi, né si riporta sulla destra quando un veicolo più veloce vuole superarci.
NON PUÒ ANCORA “VEDERE” IL POLIZIOTTO… - Questi piccoli dettagli dimostrano che il lavoro è a buon punto, ma non si può dire completo. In aggiunta, non è ancora stata implementata la comunicazione diretta fra vetture, e le telecamere riescono a riconoscere le sagome ma non i dettagli. Ciò vuol dire che, per esempio, l’intelligenza artificiale non è abbastanza evoluta per interpretare i gesti di un poliziotto a bordo strada che intima di fermarsi o invita a procedere. Inoltre, la neve e la pioggia causano ancora cali delle prestazioni di radar e telecamere, mentre anche la sporcizia che si accumula sui Lidar è fonte di errori di lettura.