Dalla Libia all’Ucraina: è caduto il tabù sull’uso delle armi autonome

Dalla Libia all’Ucraina: è caduto il tabù sull’uso delle armi autonome

Il 27 marzo 2020, secondo quanto documentato da un report dell’ONU, è stata utilizzata per la prima volta un’arma autonoma: si è trattato di uno sciame di droni lanciato in Libia dalle forze del generale Haftar contro quelle fedeli all’allora primo ministro al-Sarraj.

A differenza di armi simili già viste all’opera in passato, gli STM Kargu-2 in dotazione (tramite la Turchia) al governo di Tripoli erano del tutto autonomi: dotati di un software di intelligenza artificiale, potevano attaccare gli obiettivi “senza che ci fosse una comunicazione tra l’operatore e le munizioni”, come ha scritto proprio l’ONU.

Chi sperava che potesse rimanere un caso isolato è rimasto deluso: in seguito all’invasione dell’Ucraina da parte della Russia, anche in quel teatro di guerra hanno iniziato a fare la loro comparsa alcune armi autonome, tra cui (come riporta la ong Stop Killer Robots) il drone KUB-BLA in dotazione alle forze russe; da parte loro, le forze ucraine hanno usato i droni turchi Bayraktar TB2, dotati di alcune funzionalità autonome.

Nonostante 40 nazioni al mondo abbiano chiesto la messa al bando delle armi autonome e altre ne chiedano una regolamentazione (e nonostante il segretario generale dell’ONU le abbia definite “moralmente ripugnanti”) il timore è che il vaso di Pandora sia stato scoperchiato e che da qui non si torni più indietro. È così? “È sicuramente caduto il tabù”, ci ha spiegato Mariarosaria Taddeo, docente di Etica digitale all’Oxford Internet Institute (che affronterà questi temi al Trieste Next Festival del 22-24 settembre). Ancora: “Fino a poco fa si insisteva sul fatto che queste armi fossero ancora a livello sperimentale e invece abbiamo visto come recentemente siano state utilizzate in maniera pesante. Il rischio è anche che l’Ucraina, pur augurandoci che la guerra finisca il prima possibile, diventi un territorio per la sperimentazione delle armi autonome. Per esempio, la Cina potrebbe fornire alla Russia le sue tecnologie per sperimentarle e raccogliere nel frattempo i tantissimi dati relativi a un contesto di battaglia, necessari per addestrare questi strumenti”.

Rispetto alle armi che abbiamo visto all’opera prima in Libia e oggi in Ucraina, rimane però un dubbio: si tratta di armi completamente autonome o semi-autonome, in cui quindi c’è un operatore che a distanza le supervisiona? “Si tratta di armi che spesso possono essere utilizzate in entrambi i modi – ci ha detto ancora Taddeo – Per un osservatore esterno è impossibile affermare se un modello è stato impiegato in maniera autonoma o semi-autonoma. È un tema importante, perché questa sfumatura complica l’applicazione di una messa al bando delle armi autonome, qualora mai ci dovessimo arrivare”.

Eppure, è proprio questa differenza a essere stata messa al centro di molti dibattiti sul tema: gli stessi Stati Uniti, che si oppongono al divieto, hanno una direttiva che richiede esplicitamente che le armi autonome letali “siano progettate in modo da consentire a comandanti e operatori di esercitare livelli appropriati di giudizio umano”. È la politica nota come Human in the Loop, che prevede cioè che ci sia sempre un essere umano coinvolto nel processo decisionale di questi strumenti. Non è una differenza cruciale? “Si tratta più che altro di una distrazione – ci ha risposto la docente dell’Oxford Internet Institute – Non è quella la soluzione. La prima ragione è di carattere morale: è legittimo delegare alle macchine un ruolo così importante nella scelta di togliere la vita a un essere umano? Inoltre, quando lanciamo un’arma autonoma non possiamo garantire al 100% che agirà solo a determinate condizioni e che causerà determinate conseguenze. Con le IA ciò non è possibile, perché parliamo di sistemi che ragionano in maniera probabilistica e che sviluppano nuovi comportamenti in base all’ambiente in cui agiscono. Inoltre non possiamo nemmeno garantire il principio di distinzione, che chiede di distinguere sempre tra belligerante e popolazione civile e che è un principio che le leggi internazionali ci impongono di rispettare. Il principio Human in the loop diventa un po’ un capro espiatorio, vista anche la velocità con cui queste armi funzionano e le raffinatissime competenze che sarebbero richieste a ogni singolo operatore”.

Messa così, sembra che l’unica soluzione sia una completa messa al bando di qualunque strumento bellico dotato di intelligenza artificiale: “Credo che al momento non si possano utilizzare armi in grado di attaccare gli umani mantenendo una moralità in guerra – è la riflessione di Taddeo – Se poi la tecnologia dovesse cambiare e diventare prevedibile al 100%, o se riuscissimo a distribuire le responsabilità morali e tutta una serie di altre condizioni molto complesse da raggiungere, allora potrei anche cambiare idea. Credo che invece un discorso diverso si possa fare sulle armi non letali, utilizzate solo per distruggere oggetti e che potrebbero avere un ruolo nei contesti bellici. Per il momento però siamo troppo distratti da altri argomenti e non stiamo lavorando su una buona regolamentazione”.

A questo proposito, a che punto sono i lavori per una regolamentazione delle armi autonome? “È un percorso molto difficile, anche a causa del dibattito polarizzato. Si è comunque definito un quadro generale di 11 princìpi che guidi gli Stati nell’adozione delle armi autonome. Questa non è una strada che porta alla messa al bando, ma a una regolamentazione. Visto però l’uso che se n’è fatto in Ucraina, se almeno riuscissimo ad adottare questi princìpi sarebbe già un passo avanti. Ma è molto difficile”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *