Il pericolo dei Robot Killer

0

Si tratta di fantascienza o di un futuro non troppo lontano?

1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. (1)

Avete mai visto “Io, Robot”? Oppure “Capitan America”? O magari “Men against Fire”, 3×5 di Black Mirror?
So a cosa state pensando: scenari futuristici, uomini “super-potenziati”, intelligenze artificiali che competono ai loro creatori… è solo fantascienza.
Ne siete sicuri? E se vi dicessi che c’è qualcosa che va ben oltre la finzione cinematografica?
L’uomo ha sempre visto nella tecnologia un’amica da curare ed aiutare a crescere, ma anche qualcosa dalla quale avvedersi.
Quando parliamo di progresso tecnologico è necessario definire il preciso settore al quale si fa riferimento: noi rivolgiamo la nostra attenzione alla tecnologia militare.

Il periodo che precede le due guerre mondiali ha dato vita ad un notevole sviluppo sia nella ricerca che nell’uso di tecnologie avanzate in ambito militare: infatti, fanno il loro ingresso nella guerra i carri armati, aerei militari, mitragliatrici, fucili più leggeri.
A ciò si aggiunge la ricerca per l’implementazione di armi non convenzionali come armi chimiche e nucleari.
Gli esiti sono fin da subito strabilianti. Cambia per sempre la natura della guerra, il modo di “uccidere e morire in battaglia”e l’idea di punizione del nemico.
Ma non finisce qui, l’ingegneria militare va oltre.
E se fosse possibile creare delle macchine autonome che sostituiscano i soldati in battaglia?
Questa domanda ha iniziato ad attanagliare la mente di esperti militari a metà degli anni ’60. La possibilità di creare robot capaci di agire autonomamente in guerra, e sostituire gli uomini, sembra catapultare il presente ben oltre i limiti della fantascienza.

Ad oggi, teoricamente, abbiamo tre tipologie di robot militari:
1. Human in the loop: è un robot che necessita sempre la supervisione umana ed il controllo in remoto per poter agire, come ad esempio i droni;
2. Human on the loop: il robot può agire autonomamente, scegliere target materiali ed umani ma il controllo in remoto è sempre presente e l’azione può essere bloccata ad ogni momento;
3. Human out the loop: il robot è completamente autonomo, può scegliere target umani e non vi è nessun tipo di controllo in remoto.

Quest’ultimo è il più interessante ed il più controverso da un punto di vista etico.
Ci riferiamo ai “Lethal Autonomus Weapon System”, noti agli esperti con l’acronimo di LAWS ed ai più come i “Robot killer”.
Si definisce LAWS il sistema che, “una volta attivato, è perfettamente in grado di agire e compiere scelte autonome, non necessita alcuna supervisione umana ma, soprattutto, è in grado di adattarsi ad ambienti diversi rispetto a quello originario, nel quale è stato creato e programmato” (2).

In merito ai LAWS ed al loro possibile uso in guerra si discute molto, ed il dibattito diventa sempre più acceso.
Infatti, se da un lato abbiamo gli esperti del settore militare che inneggiano ai LAWS come la nuova frontiera della guerra, dall’altro la giurisprudenza e l’etica avanzano dei problemi a cui si stenta trovare una soluzione.

Supponiamo che, in un futuro prossimo, i LAWS sostituiscano i soldati in guerra e che uno di loro scelga, per ragioni a noi sconosciute, di colpire dei target civili uccidendoli.
Il diritto internazionale ed il diritto umanitario per azioni come questa sono molto chiari:
Il principio di discriminazione: combattenti non devono scegliere target civili;
– La teoria del duplice effetto: l’uccisione di civili è moralmente accettabile solo se vengono raggiunti scopi militari superiori al danno perpetrato e se l’effetto negativo è involontario.
Perciò, nell’eventualità in cui sia un umano a commettere la violazione, i suoi superiori sono tenuti a procedere per la sua giudicatura penale ed applicare quanto disposto dal diritto per fare giustizia.
E se la violazione fosse commessa da un robot?

Dare una risposta non è per niente semplice.
Possiamo escludere da subito la responsabilità del programmatore del robot: infatti, nonostante si potrebbe ribattere che è il “creatore” a determinare indirettamente le “scelte” del robot tramite i vari algoritmi che ne generano l’azione, abbiamo già specificato che si tratta di un sistema autonomo, in grado di adattarsi ad ambienti nuovi rispetto all’originario.
Se il sistema non fosse totalmente autonomo, il cordone ombelicale che lega il robot al suo programmatore resterebbe intatto, perciò la responsabilità per le violazioni commesse ricadrebbe proprio su quest’ultimo.

Dobbiamo concludere che la responsabilità sia del robot stesso?
Se si, come si giudica un robot? Come lo si punisce?
Possiamo punire un robot fisicamente: fornendogli un olio di qualità inferiore o privandolo, manomettendolo, nei casi più gravi spegnerlo. Ma ciò è giusto da un punto di vista legale ed etico?
Allora possiamo punire un robot emotivamente: questo significa supporre che un robot gode di una sfera emotiva pari a quella umana. Siamo in grado di poter decifrare l’emotività robotica?
Dovremmo trovare nuove categorie per definire i concetti di punizione e colpa?

Abbiamo raggiunto un’impasse.
State tranquilli, stiamo pur sempre parlando di una macchina che, materialmente, non esiste ancora. Vive nei sogni e nei progetti di militari ed ingegneri. Ma questo non durerà ancora a lungo.
E quando arriverà il giorno in cui i Killer Robot metteranno piede in guerra e sostituiranno i soldati, qualcuno avrà risolto l’impasse?

 

Articolo a cura di: Mirjam Frakulla

 

(1). Si tratta delle famose Tre Leggi della Robotica di Isaac Asimov scrittore e biochimico sovietico, naturalizzato statunitense. I robot protagonisti dei suoi racconti sono strettamente tenuti a rispettarle.
(2). Istituto degli affari internazionali d’Italia, articolo di Adriano Iaria, dicembre 2017.
Per approfondimenti: consiglio vivamente la lettura di Robert Sparrow, “Killer Robot”, Journal of Applied Philosophy 2007.
Mirjam Frakulla

Ciao a tutti! Sono Mirjam, ho 21 anni e faccio parte del team di blogger di Cogito! Studio Relazioni Internazionali a Milano. Mi piace leggere, scrivere, ascoltare musica, fare foto e amo prendere una valigia e scappare tutte le volte che ne ho l'occasione.