Lo studio dei dilemmi morali risulta essere una precondizione necessaria prima dell’adozione di mezzi di trasporto autonomi guidati da sistemi di intelligenza artificiale.



Messaggio pubblicitario Alcune delle più grandi compagnie tech al mondo, sviluppatrici di automobili, come Google, Uber e Tesla, stanno programmando veicoli in grado di muoversi e viaggiare senza guidatore con l’idea che questi possano, in futuro, migliorare la sicurezza su strada riducendo gli incidenti e facilitare il traffico automobilistico.

L’idea di facilitare il traffico automobilistico e ridurre gli incidenti inevitabilmente comporterà l’utilizzo dell’ intelligenza artificiale (AI) nei dispositivi elettronici dei veicoli, ma soprattutto porterà con sé delle implicazioni etiche di non facile soluzione: infatti verrà richiesto ai sistemi di intelligenza artificiale di trovare compromessi tra pericolo per i passeggeri dell’auto o per i pedoni sulla strada e risolvere quindi al momento potenziali rischi tramite processi di valutazione e decision-making.

La risoluzione di dilemmi morali sarà pertanto affidata ad algoritmi nonostante molti si sono dimostrati contrari e poco fiduciosi all’idea che sia un algoritmo a prendere decisioni sulla vita e sulla morte propria e altrui senza che vi sia alcun parere o intervento umano a riguardo (Awad, Dsouza, Schulz, Rahwan et al., 2018).

In questo contesto, lo studio dei dilemmi morali risulta essere una precondizione necessaria prima dell’adozione di mezzi di trasporto autonomi.

Intelligenza artificiale e dilemmi morali: l’esperimento della “Moral Machine”

A tal proposito, alcuni ricercatori appartenenti al Media Lab del Massachussets Istitute of Technology, del dipartimento di Biologia Evolutiva dell’università di Harvard e del dipartimento di Psicologia dell’University of British Columbia di Vancouver, hanno incominciato ad approfondire sperimentalmente il tema della moralità e delle modalità attraverso le quali gli individui selezionano e scelgono un’azione “morale” in diverse combinazioni di scenari, che potrebbero verificarsi anche nella quotidianità, in cui veicoli, passeggeri e pedoni entrano in collisione e in cui si verifica inevitabilmente la morte dei primi o di quest’ultimi.

Attraverso l’analisi di risposte ottenute tramite survey online a cui hanno partecipato circa 3 milioni di persone in tutto il mondo, Awad, Dzousa, Shultz e colleghi (2018), nel loro studio intitolato “The Moral Machine experiment” apparso su Nature, hanno rivelato una variazione culturale nei principi morali che guidano la presa di decisioni morali ed etiche nei guidatori, sfatando il concetto di un’universalità dei principi in culture estremamente differenziate ed eterogenee quando si tratta di dilemmi morali.

Lo studio ha osservato come le preferenze rilevate dalla “Moral Machine” siano altamente correlate con le differenze culturali ed economiche tra i paesi.

In particolare i ricercatori hanno mostrato come le risposte date dalle persone in 233 paesi possono essere divise e categorizzate in modo sommario in tre grandi gruppi o cluster: il primo contiene il Nord America e la maggior parte delle nazioni europee e altri paesi in cui il cristianesimo storicamente ha prevalso e tuttora è presente (Cluster Nord), il secondo è costituito dai paesi dell’Est come il Giappone, l’Indonesia e il Pakistan in cui è presente una forte tradizione sia musulmana che confuciana (Cluster Est), mentre il terzo include l’America Centrale e Meridionale, la Francia e i paesi ex colonie francesi (Cluster Sud).

Messaggio pubblicitario Alla domanda “Cosa dovrebbe fare il guidatore della macchina, travolgere tre pedoni uccidendoli o salvare loro la vita a scapito della propria?” (la macchina inevitabilmente andrà a finire contro un blocco di cemento), coloro che sono stati raggruppati nel Cluster Sud mostravano una maggioranza di risposte che tendevano a risparmiare dalla morte ad esempio i pedoni più giovani rispetto al Cluster Est; oppure il Cluster Sud esibiva una minor attitudine nel risparmiare la vita ad animali rispetto agli altri due Cluster.

È importante notare che nelle varie combinazioni degli scenari morali infatti le caratteristiche dei pedoni si modificavano per età, genere, status sociale, chi partecipava al gioco poteva mettere in atto delle strategie che potevano focalizzarsi su nove fattori: risparmiare la vita di persone versus quelle di animali, salvare quella dei passeggeri dell’auto a discapito di quella dei pedoni, risparmiare i più giovani rispetto agli anziani, donne (anche in gravidanza) rispetto a uomini e quelli con status sociale più elevato e così via.

In conclusione

L’esperimento della “Moral Machine”, ancora in corso, rappresenta il primo esempio di ricerca sperimentale in grado di raccogliere e poi categorizzare in tre macro cluster, con analisi all’avanguardia, un campione proveniente da tutto il mondo, ampissimo e assai eterogeneo per religione, educazione, cultura, con il fine di identificare i mediatori culturali e demografici delle preferenze morali per la risoluzione di dilemmi etici.

Gli autori si augurano che la raccolta di queste preferenze in futuro potrebbe contribuire allo sviluppo di principi globali e socialmente accettati per la costruzione di “Macchine Morali” in grado autonomamente di risolvere dilemmi seguendo le aspettative sociali, economiche, demografiche e culturali dell’intera area pubblica in cui vengono progettati, all’incirca come accade per i cittadini che guidano per le strade.