Quando le macchine decidono da sole: di chi è la responsabilità?
La notizia dell’uccisione di un volontario italiano prigioniero dei jihadisti da parte di un drone statunitense ha rimesso al centro dell'attenzione la questione dell'utilizzo di macchine controllate a distanza per uso militare, evidenziando le gravi problematiche etiche e politiche collegate.
Droni e non solo. In ambito militare si utilizzano correntemente nelle diverse operazioni sui campi di battaglia droni, esploratori robotizzati e sistemi di fuoco robotici. I droni o Unmanned Aerial Vehicle (UAV) sono mezzi aerei che possono essere completamente automatizzati (cioè seguire un profilo di volo pre-programmato) o essere telecomandati a distanza da una stazione fissa o mobile. A lungo i droni sono stati considerati solo un sistema di addestramento per piloti o utilizzati come operatori di batterie antiaeree e operatori radar. Con l’evolversi delle tecnologie implementate hanno fatto la loro comparsa anche i cosiddetti UAV Tattici, aerei senza pilota con strumenti di El-Int (Electronic Intelligence), macchine fotografiche o telecamere per il controllo del territorio o armati per attacchi al suolo. Il modello di drone che la cronaca ha reso famoso è il Predator: un UAV che la CIA, l’agenzia governativa americana che coordina i servizi segreti, usa per le sue missioni nei territori di guerra quali l’Afghanistan (guarda il video).
Chi decide? La realizzazione di tecnologie controllate da sistemi di intelligenza artificiale (AI) porta con se una serie di problemi legati alla gestione dell’autonomia decisionale di cui questi apparati godono (quando si usa il termine autonomia legato al mondo della robotica si vuole intendere il funzionamento di sistemi di AI la cui programmazione li rende in grado di adattare il loro comportamento in base alle circostanze in cui si trovano ad operare). La capacità dei robot di mutare il loro comportamento in base alle condizioni in cui operano, per analogia con l’essere umano, viene definita autonomia. Per indicare tutte le complessità che derivano da questo tipo di libertà decisionale di queste macchine si è introdotto il termine Artificial Moral Agent (AMA): parlando di AMA si indica quel settore che studia come definire dei criteri informatici per creare una sorta di moralità artificiale nei sistemi AI portando alcuni studiosi a coniare l’espressione macchine morali per questi sistemi.
Guardando ai sistemi AI sorgono numerose e inquietanti domande. Le conseguenze di ciò che la macchina decide sono moralmente qualificabili? Chi è responsabile per le azioni che autonomamente la macchina mette in essere? In modo particolare si avverte come urgente definire delle modalità di progettazione standard che rispondano ad adeguati criteri di sicurezza per tutti quei sistemi che hanno la possibilità di mettere in atto dei comportamenti che possono essere letali per gli uomini.
Insomma, un drone che uccida in un’operazione militare dei civili innocenti è responsabile di quelle morti? Si può parlare per una macchina di bene o male morale? O meglio, in casi come questo di chi è la responsabilità?
Paolo Benanti