Indica un intervallo di date:
  • Dal Al
©credits

IA & società: la scomparsa del grilletto

Non è necessario guardare lontano nel tempo per veder circolare poliziotti in stile robocop completamente automatizzati. In certe zone del mondo basta alzare lo sguardo per scoprire di essere osservati da droni di ogni sorta, per quanto ne sappiamo comandati a distanza, ma provvisti della tecnologia sufficiente per cavarsi d’impiccio da soli. Non è quindi difficile immaginarsi il momento in cui assisteremo alla scomparsa del grilletto, ultima connessione decisionale tra un’arma ed un essere umano.

Le voci a favore di un tale passo non sono poche. La motivazione principale? Il numero di morti e di atrocità causate da fattori puramente umani come l’impulsività, la paura, l’odio razziale. Nulla toglie che un robot un giorno possa sperimentare simili emozioni, ma se ben programmato non dovrebbe scostarsi da quanto gli viene ordinato. E un robot a cui si ordini di fare una strage non differisce in nulla da un esplosivo utilizzato allo stesso scopo.

Non si può negare che la supposta assenza di emotività sia uno dei punti di forza delle armi autonome – questo il termine tecnico per i robo-killer o armi senza grilletto. Ma i problemi sono ben altri. In primis il problema della responsabilità delle azioni di un tale automa: a chi attribuire la colpa se, per esempio, un’arma autonoma decidesse di bombardare una scuola elementare o un ospedale malamente camuffato da bersaglio? Non essendo in grado di analizzare il contesto, in simili situazioni un software non sarebbe in grado di distinguere civili da militari, uno dei requisiti fondamentali del diritto bellico (qualcosa sembra muoversi proprio su questo fronte).

Dare la possibilità ad un software di decidere della vita di un essere umano è abominevole. Così come la ricerca e lo sviluppo di armi batteriologiche furono banditi dalla comunità scientifica ed internazionale, oggi il mondo della ricerca dovrebbe essere in prima fila per la pubblicazione di una moratoria sullo sviluppo di armi autonome. La speranza è che questo porti rapidamente ad una regolamentazione del loro utilizzo da parte della società civile. E non ci dovrebbe essere nessuna paura di restare a corto di problemi di ricerca, oltre alle infinite applicazioni civili dell’IA. Tra i tanti, come possiamo sviluppare codice che implementi una versione ben ragionata delle celebri leggi della robotica di Asimov? Quali sono i limiti di un’arma autonoma? È sufficiente, ad esempio, che un uomo prema una qualche forma di grilletto ogni volta che un software lo reputi necessario, per potergli attribuire la piena responsabilità dell’azione?

[Per approfondire: una campagna per fermare la ricerca e lo sviluppo di armi autonome (da non confondere con le armi automatiche, che sono in commercio e non pongono eccessivi problemi etici oltre al fatto di essere delle armi), e il comitato etico associato. Un recente articolo di Slate che suggerisce possibili regolamentazioni per le armi autonome.]