Roma, 14/05/2024
Roma, 14/05/2024

Auto a guida autonoma ed intelligenza artificiale. I problemi etici e morali: che succede in caso di incidente? E i dati raccolti?

11

Le auto a guida autonoma dotate di intelligenza artificiale sollevano dilemmi etici e morali. In caso di incidente come si deve comportare il veicolo? Di chi è la responsabilità? E c’è un problema di privacy e di sicurezza legato ai dati raccolti?

Il futuro della mobilità sarà rappresentato anche dalle auto connesse, che comunicheranno tra loro, con le infrastrutture e la rete mettendo in circolo una notevole mole di dati. E questo determina però delle questioni riguardo la sicurezza, la privacy, la responsabilità legata alle informazioni circolanti, nonché aspetti etici.

In una serie di webinar promossi dalloIEEE (Institute of Electrical and Electronics Engineers) Standards Association si è parlato di tutti questi aspetti. A partire da quelli legati ai veicoli autonomi, che ovviamente devono sfruttare grandi quantità di dati per poter garantire una esperienza di guida quanto più possibile sicura ed efficiente.

Auto a guida autonoma: come si debbono comportare in caso di incidente?

Come riporta lo IEEE uno dei punti principali riguarda anzitutto l’etica. Quando si parla di intelligenza artificiale si sollevano questioni riguardo ad esempio il riconoscimento degli esseri umani e dei volti. Inoltre ci sono risvolti legati alla responsabilità delle decisioni che prende il veicolo. Quando la tecnologia raggiungerà livelli di autonomia molto sofisticati, dovremmo forse delegare all’auto decisioni morali di un certo rilievo. Come ad esempio rischiare un incidente (tipo finire in un dirupo) o evitarlo anche se questo costerà la vita di uno o più pedoni.

Uno studio di qualche anno fa pubblicato su Nature e realizzata da un gruppo di ricercatori del MIT (in collaborazione con altre università estere) ha analizzato le risposte di partecipanti da varie parti del mondo riguardo scenari ipotizzabili di incidenti, considerando anche diverse variabili. Gli studiosi avevano ricavato tre macroaree regionali legate al tipo di punto di vista esposto dai soggetti intervistati. Ognuna di essa si caratterizzava per la maggiore o minore enfasi nel considerare la provenienza sociale, sesso, età dei pedoni a rischio in un potenziale incidente, dando priorità o meno a determinate categorie. Inoltre, in Paesi dove le disuguaglianze sociali legate al reddito sono più marcate, si tende a considerare più sacrificabili i soggetti di ceto sociale inferiore.

Considerando quindi una sensibilità diversa legata alla gestione degli imprevisti in base alla parte del mondo dove ci si trova, come definire uno standard specifico ed universale per il comportamento delle auto a guida autonoma in caso di incidente? E poi, per evitare danni ancora maggiori è concepibile accettare il sacrificio di uno o pochi?

Il dilemma del trolley problem

Si tratta del dilemma del trolley problem, originariamente definito dalla filosofa inglese Philippa Ruth Floor. Essa aveva elaborato uno scenario in cui c’è un tram che non può frenare e che può al limite deviare dal percorso cambiando la propria rotaia. Qualora ci fossero cinque persone legate presenti sul binario che sta percorrendo il tram, il veicolo può decidere di scambiare e passare ad un’altra rotaia, dove però è presente una persona legata. Il conducente quindi cosa deciderà di fare, tirare dritto e travolgere i cinque malcapitati oppure passare al binario parallelo, e colpirne una sola?

E se questa decisione fosse delegata non ad un essere umano che guida il veicolo, bensì alla macchina stessa? Noi partiamo da precetti e concezioni morali pregresse, per cui già il fatto che ci siano delle persone bloccate su un binario è qualcosa di criminale, ed equivale a condurre questi disgraziati a morte certa. Un veicolo punterebbe più cinicamente a minimizzare i rischi e massimizzare i vantaggi, detto brutalmente.

Le auto a guida autonoma non assumono decisioni morali, ma utilitaristiche

I veicoli a guida autonoma non sono in grado e non devono replicare gli schemi della mente umana, ma devono andare a ricercare una massimizzazione della sicurezza. Eppure, se considerassimo uno scenario con le auto a guida totalmente autonoma presenti in massa sulle nostre strade, potrebbe esserci proprio più sicurezza. Almeno per i pedoni che rispettano il codice della strada, meno invece per chi lo viola. Un veicolo dotato di intelligenza artificiale può ragionare infatti in maniera schematica, rispetto alla diversa sensibilità di un autista.

Questi però sono modelli teorici, da verificare con le tecnologie stesse e il loro progresso. Negli anni scorsi si era parlato di ethical knob, ovvero una specie di pulsante per le auto di livello 5 (autonomia massima) tramite il quale il conducente può prendere il controllo del veicolo.

Una cosa dovrebbe essere certa, ovvero che una vettura autonoma non dovrebbe assumere decisioni morali o etiche. Bensì, come abbiamo detto, ragionare in ottica utilitaristica. Un concetto che deve essere tenuto in seria considerazione quando arriveranno sul mercato vetture di livello autonomo più sofisticato di quello attuale. Al tempo stesso, l’intelligenza artificiale delle auto non deve soffermarsi su caratteristiche peculiari dei pedoni come la provenienza geografica, l’età, il sesso e così via, ma valutare rischi e benefici secondo criteri oggettivi.

La responsabilità in caso di incidente

Altra questione di un certo peso è la responsabilità civile e penale in caso di incidente. La colpa è del conducente o del veicolo? Oppure del costruttore stesso? La sentenza sul sistema Autopilot di Tesla, relativo al caso di un gravissimo incidente avvenuto nel 2019, scatenato da un brusco cambio di traiettoria della Model 3 e in cui morì il conducente, aveva scagionato il marchio, ma in quel caso si stabilì che il software montato a bordo non era prettamente autonomo, nonostante i proclami della stessa Tesla. In realtà era “semplicemente” un sistema di guida assistita.

Ammettendo però che le tecnologie a bordo siano perfettamente calibrate e funzionanti, resta il dilemma. E che si restringe alle scelte operate dal guidatore o dal veicolo. Chi è responsabile in caso di incidente? Un busillis non facile da sciogliere, ma come abbiamo detto per ora la tecnologia non è arrivata ai livelli di guida autonoma totale, togliendo per ora qualche castagna dal fuoco dal dibattito legislativo.

Consideriamo inoltre che i Codici della Strada, come quello italiano che comunque è prossimo ad essere aggiornato, non contemplano rischi ed opportunità dei software autonomi. E le auto intelligenti, in quanto tali, dovrebbero adattarsi ai cambiamenti stradali, delle infrastrutture o la segnaletica. Oltre a comprendere i precetti delle leggi della strada a seconda del Paese dove si trovano (svolte consentite, precedenze, lato della corsia da percorrere e così via).

Le questioni legate alla privacy e alla sicurezza dei dati

Inoltre, vanno citate le questioni legate alla privacy dei dati e alla sicurezza degli stessi. A dire il vero, il problema si pone già ora con le tecnologie GPS. Ma con veicoli sempre più connessi e legati ad aggiornamenti over-the-air i rischi di intrusioni informatiche o dati rubati potrebbe aumentare in maniera proporzionale. E questo riguarda anche le colonnine di ricarica in caso di veicoli elettrici. E torniamo infine sulle questioni etiche quando parliamo di quanti e quali dati possono essere raccolti dalle auto intelligenti.

Related Posts