E se fosse l’intelligenza artificiale a decidere chi salvare in guerra?

E se fosse l’intelligenza artificiale a decidere chi salvare in guerra?

L’intelligenza artificiale in ambito militare ha ottenuto una promozione. Fino a oggi, le applicazioni belliche del deep learning erano sempre state relative ai cosiddetti soldati robot (più correttamente, armi autonome): droni, missili e non solo teoricamente in grado di individuare da soli i bersagli e fare fuoco. Degli strumenti che non sono stati quasi mai impiegati in tutte le loro potenzialità (il grilletto viene infatti premuto da un essere umano) e che pongono una tale quantità di problemi etici che da anni è in corso un’importante campagna per chiedere la loro messa al bando.

Da soldati semplici, gli algoritmi potrebbero però adesso diventare degli ufficiali. Nel mese di marzo, la Darpa – l’agenzia per i progetti di ricerca avanzati della Difesa statunitense, che in passato ha giocato un ruolo nella nascita di internet, del GPS e di molto altro – ha presentato un progetto per sviluppare un’intelligenza artificiale capace di decidere nel giro di pochi secondi in che modo organizzare i soccorsi a una truppa colpita da un attacco nemico, come salvare il maggior numero di vite possibili in seguito a un attentato e altri simili scenari bellici.

Battezzato “In The Moment”, questo programma è parte degli oltre 60 progetti relativi all’impiego dell’intelligenza artificiale nel settore della Difesa, finanziati a partire dal 2018 con oltre 2 miliardi di dollari. “L’obiettivo è sviluppare una tecnologia capace di prendere decisioni molto rapide in scenari estremamente stressanti, utilizzando gli algoritmi e i dati per rimuovere i pregiudizi umani e salvare così un numero maggiore di vite”, ha scritto il Washington Post.

In The Moment è un programma dalla durata stimata in tre anni e mezzo che prevede la collaborazione di aziende private, anche se non sono state divulgate informazioni relative a quali aziende saranno coinvolte o abbiano mostrato interesse, e nemmeno quante risorse economiche siano state destinate a questo progetto. Se e quando sarà completato, questo sistema dovrebbe quindi essere in grado di affrontare situazioni molto diverse, che vanno dall’organizzazione dei soccorsi di piccole unità che hanno subito pesanti perdite nel corso di un’operazione speciale fino ad attentati terroristici che possono provocare centinaia di morti tra i civili.

Intervenendo dopo episodi di questo tipo, il software della Darpa dovrebbe essere in grado di identificare in pochi secondi tutti gli ospedali disponibili nei dintorni, quali sono più forniti delle risorse mediche necessarie (per esempio, le scorte di sangue o i posti letto liberi), come suddividere nelle diverse strutture i feriti, a quali feriti dare la priorità e molto altro ancora. “Le indicazioni dell’algoritmo replicherebbero quelle degli esseri umani con maggiore esperienza nel campo del triage”, ha spiegato il responsabile del progetto della Darpa Matt Turek. Gli algoritmi informatici, ha proseguito Turek, possono trovare soluzioni di cui gli esseri umani non sono capaci, avendo la possibilità di valutare un’enormità di dati, soluzioni e differenti scenari in tempi rapidissimi.

Come spesso avviene nel campo della tecnologia (si pensi alle interfacce cervello-macchina o all’editing genetico), le prime applicazioni che vengono promosse riguardano l’ambito medico e la possibilità di salvare vite o di eliminare malattie. Questo non impedisce però di immaginare che, se questo primo esperimento della Darpa avrà successo, dei sistemi di intelligenza artificiale potrebbero in futuro anche decidere come allocare le truppe in uno scenario di guerra, quale strategia adottare, chi colpire e altro ancora. Sarebbe un enorme passo nella direzione della automazione della guerra, che è stata recentemente raccomandata dalla National Security Commission on AI (un organo di consulenza del governo statunitense) e che viene invece aspramente combattuta da moltissimi esperti, estremamente preoccupati dalle ricadute etiche.

Davvero può essere una macchina a scegliere chi dev’essere curato per primo quando le risorse sono limitate? E chi si deve assumere la responsabilità se il software prende decisioni sbagliate, causando la morte di numerosi soldati o civili? Non c’è il rischio di deresponsabilizzare le persone che, oggi, fanno questo tipo di fondamentali scelte? E soprattutto: siamo davvero sicuri che – per quanto rapida ed efficiente nel macinare grandi quantità di dati – sia possibile affidare mansioni così delicate a strumenti che sono totalmente privi di buon senso e della capacità di affrontare in modi nuovi delle situazioni inedite o impreviste? 

Dagli algoritmi che si occupano di selezionare i candidati più adatti per un lavoro, fino a quelli di polizia predittiva che indicano alle pattuglie quali zone presidiare, ogni volta che i sistemi di deep learning sono stati applicati in campi in cui gli aspetti etici e valoriali giocano un ruolo importante, i problemi in termini di discriminazioni, errori e inadeguatezza si sono moltiplicati. Prima di utilizzare strumenti che fino a oggi si sono mostrati altamente problematici anche nelle più gravi situazioni di emergenza, forse dovremmo pensarci con molta attenzione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *