Con una lettera aperta indirizzata all'ONU, Elon Musk (Tesla, SpaceX, Hyperloop...), Mustafa Suleyman (Deepmind Google) e altri 114 esperti di intelligenza artificiale (IA) e robotica chiedono di impedire lo sviluppo dei sistemi letali autonomi, i robot killer. Il senso dell'appello, che evidentemente è stato fatto a ragion veduta (visti i firmatari), è che se una macchina capace di prendere decisioni in relativa autonomia viene equipaggiata con un mitra, a poco valgono le leggi della robotica di Isaac Asimov, che per quanto utopistiche e fantascientifiche sono un faro nella discussione (in corso) sull'etica dei sistemi autonomi (vedi La morale dell'auto senza conducente).

Le Tre Leggi della Robotica, definite da Isaac Asimov per i suoi universi fantascientifici popolati da robot con cervello positronico:

1. Un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. |

Al comando di chi? In questo caso, però, non si parla di auto a guida autonoma. La lettera, resa pubblica in occasione della conferenza mondiale sull'IA, la IJCAI 2017, mette in guardia da un prossimo futuro in cui macchine indipendenti saranno in grado di scegliere i propri obiettivi: combattenti, "civili" e chiunque possa essere un target.

"Una volta sviluppate, i conflitti armati saranno combattuti su una scala più grande che mai, e in tempi più rapidi di quanto gli umani possano comprendere", si legge nella lettera. "Possono essere armi del terrore, armi che despoti e terroristi utilizzeranno contro popolazioni innocenti, armi che possono essere riprogrammate per agire nel modo desiderato."

È troppo tardi? Non è la prima volta che Musk e quelli che la pensano nello stesso modo si sono uniti per attirare l'attenzione sulla minaccia delle armi autonome. Il fondatore di SpaceX e Tesla gestisce anche OpenAI, una non-profit dedicata alla ricerca etica dell'IA. Ma nonostante le dichiarate preoccupazioni, non esistono ancora divieti efficaci (ossia "convenzioni" sottoscritte) contro le armi intelligenti.

La torretta automatica Samsung SGR-A1. |

Alcuni ritengono addirittura che la via della regolamentazione sia ormai impraticabile, soprattutto considerando il rapido ritmo con cui si sviluppa l'IA. "Non abbiamo molto tempo per agire: una volta aperto, questo vaso di Pandora sarà difficile da chiudere", è riportato nella petizione.

Uniti contro la minaccia robot. La "terza rivoluzione della guerra" a cui i firmatari si riferiscono vede i robot killer come i successori di polvere da sparo e armi nucleari: innovazioni che non hanno esattamente migliorato il mondo. È la prima volta che i rappresentanti delle aziende di AI e robotica - da 26 paesi - si schierano apertamente sulla questione, unendo i ranghi con ricercatori indipendenti come Stephen Hawking, Noam Chomsky e Steve Wozniak (co-fondatore di Apple).

Un modello del drone Taranis, di BAE System. |

Incubi reali. «Il numero di aziende e individui che hanno firmato questa lettera rafforza il nostro avvertimento: questo non è uno scenario ipotetico, ma un problema reale e urgente che richiede un'azione immediata», afferma il fondatore di Clearpath Robotics, Ryan Gariepy: «non dobbiamo perdere di vista il fatto che, a differenza di altre potenziali manifestazioni di IA che rimangono ancora nel regno della fantascienza, i sistemi autonomi armati sono in questo momento al primo posto nelle classifiche di investimenti per lo sviluppo di nuove tecnologie.»

Mentre l'incubo finale di macchine autonome armate è un futuro popolato da robot con le sembianze di Terminator, la realtà è che le macchine per uccidere dotate di IA sono già in circolazione.

Sea Hunter, la nave sommergibile comandabile a distanza (DARPA). |

L'autonomia (con diversi gradi di libertà) è sempre più utilizzata per armi come la torretta automatica SGR-A1 (Samsung), il drone Taranis (BAE Systems) o il sottomarino Sea Hunter (DARPA). In altre parole, i semi dei robokiller di domani sono già su terra, mare e cielo, mentre le convenzioni per regolare l'uso queste macchine letali (e la loro costruzione) non sono ancora state scritte.

«Quasi ogni tecnologia può essere utilizzata per fini buoni e cattivi, e l'intelligenza artificiale non fa eccezione», commenta Toby Walsh, ricercatore e uno degli organizzatori di IJCAI 2017. «Può aiutare ad affrontare molti dei problemi urgenti che la società deve affrontare oggi [...], ma la stessa tecnologia può essere utilizzata in armi autonome per industrializzare la guerra. Dobbiamo prendere decisioni oggi e scegliere quale di questi futuri desideriamo.»