La responsabilità morale di un drone
Il post di Paolo
Benanti del 29 aprile 2015 ha posto interessanti domande relative all’uso, in
ambito bellico, di tecnologie controllate da sistemi di intelligenza artificiale (leggi).
La questione sull’impiego bellico dei droni è stata affrontata quasi un anno fa nell’intervento dell’osservatore permanente della Santa Sede presso le Nazioni Unite, mons. Silvano Tomasi, il quale affermava: «È importante riconoscere che un coinvolgimento umano significativo è assolutamente essenziale nelle decisioni che riguardano la vita e la morte di esseri umani, che i sistemi di armi autonome non possono mai rimpiazzare la capacità umana di ragionamento morale, anche nel contesto della guerra, che lo sviluppo di sistemi di armi autonome in ultimo porterà a una vasta proliferazione delle stesse, e che lo sviluppo di sistemi di armi autonome complessi, che escludono l’attore umano dalla presa di decisioni letali, è imprevidente e può modificare in maniera irreversibile il modo di condurre la guerra, in una direzione meno umana, portando a conseguenze che non siamo in grado di prevedere, ma che comunque aumenteranno la disumanizzazione della guerra» (leggi).
Proviamo, allora, ad abbozzare alcune risposte ai problemi etici sollevati.
La prospettiva dell’uso di armi autonome programmate con sistemi informatici ispirati a una sorta di moralità artificiale appare tutt’altro che irrealistica. Ma la questione morale urgente si pone in relazione all’attuale uso degli UAV telecomandati a distanza. Il rischio, infatti, è che questi droni appaiano all’attore umano che li controlla come un sofisticato video-game: uccidere da 8.000 km di distanza, da poche centinaia di metri o faccia a faccia non è certo la stessa cosa.
Inoltre, le decisioni sulla vita e sulla morte richiedono che siano messe in atto qualità squisitamente umane come la compassione e la prudenza. Esse sono il frutto di un complesso cammino di formazione della coscienza morale nel quale la persona è impegnata lungo tutto l’arco della vita. La responsabilità e il discernimento morale non sono qualità proprie di un’arma autonoma, pur adeguatamente programmata. Infatti, esse non sono riducibili a questione di algoritmi!
Infine, non possiamo non ammettere che l’uso dei droni in guerra porti significativi vantaggi legati, principalmente, alla riduzione dei costi in termini di presenza di soldati al fronte e di giovani vite umane uccise o devastate. Di certo, però, tale riduzione non può essere l’unico criterio per delegare in toto la libertà umana all’Intelligenza Artificiale.
Senza cadere in forme di pregiudizio anti-tecnologico, considerando la già consistente difficoltà di dimostrare le responsabilità morali e penali dei crimini di guerra, l’uso di strumenti tecnici autonomi rischia di scadere in pericolose forme di perdita di controllo sulle azioni umane e di delega della responsabilità. La supervisione e la possibilità per l’uomo di intervenire in ogni momento e soprattutto nelle scelte di vita e di morte, dovrebbe essere il limite etico invalicabile per l’utilizzo di queste nuove tecnologie.
Roberto Massaro