Roma, 14/05/2024
Roma, 14/05/2024

I rischi dell’intelligenza artificiale? Si vedono dalla guida autonoma

11rischi dell'intelligenza artificiale robotaxi cruise incidente con un furgone san francisco

Ad oggi ci sono almeno 25 morti certe causate da veicoli con sistemi di guida autonoma. Queste vicende dimostrano quali siano i rischi dell’intelligenza artificiale, e come le istituzioni debbano agire per risolvere questi problemi

Si sta finalmente agendo per regolare l’intelligenza artificiale. Lo scorso giugno il Parlamento europeo ha approvato l’AI Act, che ne è un primo passo, trasformando l’UE in pioniera nella legislazione di queste tecnologie. C’è ancora molto da fare e capire, però. Al contrario di quanto si dica, le problematiche dell’AI non si limitano a questioni come la disoccupazione. Ad oggi, infatti, le ‘menti artificiali’ si sono rivelate pericolose in un ambito ben diverso: quello della guida autonoma.

I 5 punti su cui bisogna riflettere

25 morti accertate, centinaia di feriti e danni materiali. È questo il risultato della mancata regolamentazione di tecnologie per la guida parzialmente e totalmente autonoma negli Stati Uniti. Un numero che rischia di aumentare se non si agisce per cambiare il modo di pensare l’AI.

I sistemi avanzati di assistenza alla guida si basano sugli stessi principi che permettono a ChatGPT e altri modelli linguistici di questo genere di fare la propria ‘magia’. Questi software permettono a un’automobile di muoversi nello spazio per cambiare corsia, frenare, accelerare e così via in modo autonomo. Queste scelte, però, sono effettuate attraverso ragionamenti statistici, che perciò non sono adatti ad ogni condizione. Se un modello linguistico può rispondere a un input con delle assurdità, la cosa è ben diversa per un’auto, perché quest’ultima può uccidere chi vi si trova dentro o chi è attorno ad essa.

La professoressa Mary L. Cummings, consulente in materia di sicurezza per la National Highway Traffic Safety Administration (NHTSA), negli USA, ha identificato cinque temi su cui riflettere per agire in merito a guida autonoma e AI, nella speranza che le istituzioni inizino a supervisionare al meglio l’operato delle aziende del settore.

Anche quelli dell’auto sono errori umani

Quello su cui spesso non si riflette adeguatamente è che anche gli errori di un’auto a guida autonoma sono errori umani. Anzi, lo sono a maggior ragione.

Il 94% degli incidenti è causato dai conducenti umani, ma solo perché il conducente si trova nell’ultimo posto nella scala di cause possibili. Insomma, se c’è scarsa illuminazione o le strade sono progettate male, l’errore è solo in parte del conducente. Per gli incidenti causati da un’auto a guida autonoma, invece, gli errori sono causati in primo luogo dall’umano, che è l’autore del software difettoso.

Chi dice che sostituire tutti i veicoli con mezzi a guida autonoma possa migliorare la sicurezza sulle nostre strade, dunque, non ha ragione. Si tratta, però, di problemi risolvibili. “I test, sia in simulazione che soprattutto nel mondo reale, sono la chiave per ridurre la possibilità di tali errori – spiega Cummings . Tuttavia, in assenza di una sufficiente regolamentazione governativa e di chiari standard industriali, le aziende di veicoli autonomi taglieranno i ponti per immettere rapidamente i loro prodotti sul mercato”. Quello che gli enti possono fare, dunque, è prevedere esami accurati sui veicoli a guida autonoma prima della loro commercializzazione.

È difficile prevedere i problemi di questi veicoli

Non tutte le eventualità sono modellabili. Le intelligenze artificiali sviluppano le proprie reazioni a certi eventi sulla base di immagini di riferimento, che sono etichettate sulla base di ciò che è presente in delle foto o dei video: un cono stradale, una persona, un segnale di stop. Ciò che un’auto incontra, però, già a un occhio umano può apparire in modo molto diverso sulla base delle condizioni atmosferiche o del movimento del sole, e lo stesso vale ancora di più per uno artificiale.

“Una modalità di guasto non prevista in precedenza è la frenata fantasma”, commenta Cummings. “Senza alcun motivo evidente, un’auto a guida autonoma frena improvvisamente in modo brusco, causando magari un tamponamento”, continua la docente.

Non è ancora chiaro quale sia il motivo per questo comportamento di questi mezzi, ma ad esempio la pubblicazione tedesca Handelsblatt lo scorso maggio ha riportato 1500 reclami per problemi di frenata con i veicoli Tesla e 2400 reclami per accelerazione improvvisa. Dati che non riguardano soltanto le auto di Musk, ma tutte le case automobilistiche che impiegano computer vision e AI.

Un’intelligenza artificiale confusa è pericolosa

Se, poi, mezzi di questo genere si trovano ad affrontare situazioni non presenti nei dati su cui sono addestrati, entrano in una confusione tale che li conduce a effettuare le scelte peggiori possibili. È successo, ad esempio, nel caso in cui robotaxi hanno ‘assistito’ a scene di lotta agli incendi e di soccorso. In un caso, un vigile del fuoco ha persino dovuto rompere un finestrino a un’auto a guida autonoma per rimuoverla dalla scena.

“Ciò che manca a questi sistemi – commenta la studiosa – è la capacità di giudizio di fronte all’incertezza, un precursore fondamentale della vera conoscenza” e uno dei principali rischi dell’intelligenza artificiale nel settore.

Bisogna aggiornare conoscenze e modelli dell’AI

Un altro tema fondamentale è quello della manutenzione dei sistemi di guida autonoma. Perché continuino ad essere efficaci, infatti, bisogna lavorare per migliorarne la qualità dei dati, aggiornandoli affinché includano “i nuovi tipi di auto, biciclette e scooter, le zone di costruzione, i modelli di traffico e così via”, aggiunge Cummings.

Proprio a marzo 2023, infatti, un robotaxi Cruise ha urtato il retro di un autobus snodato perché non è stata in grado di riconoscerlo come tale in quanto basava la propria conoscenza sulle dimensioni di un bus normale. “La ‘deriva del modello’ è un problema noto nell’IA e si verifica quando le relazioni tra i dati di input e di output cambiano nel tempo – prosegue –. Ad esempio, se una flotta di auto a guida autonoma opera in una città con un tipo di autobus e poi viene spostata in un’altra città con bus diversi, è probabile che il modello di rilevamento degli autobus subisca una deriva che potrebbe portare a gravi conseguenze”.

Non si può fermare l’evoluzione del sistema di guida autonoma

Ormai, però, i veicoli a guida autonoma sono in evoluzione, e non si può certamente tornare indietro rispetto a quanto fatto, soprattutto negli Stati Uniti. C’è, però, il rischio che gli incidenti avvenuti finora portino a un calo nella fiducia e nell’interesse delle persone in queste tecnologie, soprattutto se si continuano a ripresentare.

È quello che potrebbe succedere se, ad esempio, una congestione dovuta al blocco accidentale di un mezzo (per un errore nel sistema o per la mancanza di connettività, come già avvenuto) causasse problemi nel prestare soccorso a una persona che sta male a causa della congestione stradale creata. Anche se le imprese hanno creato dei centri di monitoraggio dei veicoli, c’è ancora da migliorare.

La regolamentazione è dunque fondamentale. Le aziende non possono autoregolarsi, perché ciò non porterebbe all’istituzione di buone pratiche di creazione dei software, ad esempio. Allo stesso tempo, per guidare al meglio le imprese, agenzie e istituzioni devono avere nel proprio organico persone competenti in materia che siano in grado di dettare il cammino.

Related Posts