La militarizzazione dell’intelligenza artificiale in contesti bellici è assente. Bisogna affrontare il problema dal punto di vista etico, sensibilizzare, spiegare rischi e interessi. Lo fa Guglielmo Tamburrini, l’Ordinario di Logica e Filosofia della Scienza all’Università di Napoli, esperto di etica dell’I.A.
“Il dialogo sull’attuale corsa alla militarizzazione dell’intelligenza artificiale da usare in contesti bellici, è totalmente assente. Occorre affrontare il problema dal punto di vista etico, sensibilizzare l’opinione pubblica, spiegare rischi e interessi in campo”.
E’ una delle constatazioni di Guglielmo Tamburrini, ordinario di Logica e Filosofia della Scienza presso l’Università di Napoli, esperto di etica dell’I.A. e di armi autonome. Ha recentemente pubblicato per Carrocci editore: ‘Etica delle macchine: dilemmi morali per robotica e intelligenza artificiale’. E’ membro del consiglio scientifico Unione degli scienziati per il disarmo.
Come definirebbe il connubio, l’incrocio, tra l'intelligenza artificiale e la dimensione etica, specialmente in contesti di conflitto armato.
Bisogna valutare le limitazioni e le potenzialità di una tecnologia per capire quali possono essere le salvaguardie da prendere e le cose da promuovere, ad esempio in tema di diritti umani. Allo stesso tempo è necessario proteggersi dagli usi impropri dal punto di vista etico. Attualmente assistiamo ad una corsa alla militarizzazione dell’intelligenza artificiale che solleva questioni etiche cruciali come la legittimità della difesa di uno Stato attraverso queste tecnologie. Tale corsa alla I.A. si svolge in un contesto di grandi tensioni geopolitiche, di un confronto competitivo e ostile tra le grandi superpotenze, dove manca il dialogo sulle questioni militari e vari accordi non sono stati rinnovati o raggiunti. Sia su armamenti convenzionali che nucleari. Parlare di queste cose oggi è importante perché c’è una totale assenza di dialogo e di discussione sulla corsa alle nuove forme di militarizzazione.
L’intelligenza artificiale usata in contesti di guerra non porta alle estreme conseguenze la ‘banalità del male’ di cui parlava Hannah Arendt: nessuno è più responsabile se sono le macchine a prendere decisioni?
E’ il primo interrogativo che ci si è posti a proposito della militarizzazione della I.A. e forse anche il più esplorato a proposito delle armi autonome. Siamo di fronte a strumenti in grado di attaccare un obiettivo senza intervento umano. C’è stato un grande dibattito: il compito terribile di attaccare e uccidere viene delegato alla macchina. In questi ambiti disordinati, come i teatri di guerra, i sistemi di I.A. prendono decisioni su base statistica. Commettono errori molto raramente, ma il rischio resta lo stesso molto alto. Mettiamo il caso di una guerra atomica: quali potrebbero essere le conseguenze se il sistema commette un errore? Per questo la banalità del male di Arendt è ancora più radicale: non c’è più un essere umano a cui dare la responsabilità di errori, disastri e stermini. Con la I.A. applicata alla guerra il fattore velocità è fondamentale e anche se si stabilisce un controllo umano esiste sia il cosiddetto ‘automation bias’, per cui un qualsiasi essere umano di fronte alla macchina difficilmente contraddice le decisioni di un sistema di calcolo molto potente, sia la necessità di essere più veloci del nemico e quindi l'intervento umano, che richiede del tempo, può costituire un ostacolo alla ‘vittoria’.
La banalità del male. Siamo di fronte a strumenti in grado di attaccare senza intervento umano. Il compito terribile di uccidere viene delegato alla macchina. In questi ambiti come i teatri di guerra, i sistemi di I.A. prendono decisioni su base statistica