Robot-soldato eticamente programmato: è morale?

Le più grandi menti del Dipartimento della Difesa degli Stati Uniti stanno lavorando ad un progetto che prevede la programmazione etica dei robot-soldato. Si tratta di individuare algoritmi matematici in grado di rendere eticamente autonomi dei robot militari destinati alla guerra.

Sembra fantascienza. Eppure non lo è. O, comunque, non lo sarà ancora per molto.

Gli aerei militari senza pilota, i Droni, hanno fatto la loro comparsa già svariati anni fa. Si  tratta di velivoli comandati da una base militare a distanza, nella quale un soldato visualizza la situazione attraverso un monitor e, sempre attraverso un monitor, decide se sganciare o meno la bomba, quasi come se si trattasse di un videogioco. Un enorme passo avanti in materia di tecnologia di guerra, se si pensa anche solo a tutti i morti causati da incidenti o attentati diretti ai velivoli militari. Ma ogni medaglia ha il suo rovescio. Perché la guerra non è certo un videogioco.

Ed ora arriva quest’idea dei robot militari dotati non solo di intelligenza artificiale, ma anche di morale artificiale, che dovrebbe guidarli nelle decisioni da prendere sul campo.

Naturalmente la questione divide scienziati, bioetici e filosofi. E la soluzione non è scontata.

Come dovrebbe essere stabilito il concetto di moralità? Chi sceglierebbe cosa è giusto e cosa non lo è? Può un algoritmo individuare con precisione un concetto dai confini così labili che sfuggono anche all’umana riflessione?

Un robot, forse, potrebbe costituire un vantaggio per alcuni aspetti. Il robot non rischia cedimenti psichici (che talvolta coinvolgono i soldati che vivono situazioni estreme), perdere dei robot in guerra non è certo come perdere delle vite umane. Il che sarebbe un enorme passo avanti (se avete dubbi, provate a chiedere alle persone che in guerra hanno perso un padre, un fratello, un figlio).

Eppure i problemi legati ad un’ipotetica etica dei robot non sono pochi. Programmare queste macchine in modo che facciano la cosa giusta. Ma chi è in grado di stabilire dove sia il giusto e quale sia il suo confine?

I limiti dell’intelligenza artificiale

Un semplice esempio dovrebbe bastare a spiegare la complessità (o, forse, l’insolubilità) di questa questione: ipotizziamo che ci sia un robot programmato per sparare contro i nemici e che questa attività sia stata inserita in lui come “eticamente corretta”. Quello è il compito per cui è stato programmato, quindi il robot lo farà. E se i nemici si trovassero -che so- all’interno di una scuola elementare, con una classe di bambini coinvolti? Il robot non sarebbe certo in grado di rilevare il rischio. Probabilmente perseguirebbe la missione per cui è stato programmato. Sparerebbe al nemico. Ma cosa ne sarebbe dei bambini? Di certo i rischi sarebbero altissimi.

Ma, mentre noi comuni mortali stiamo qui a interrogarci sulla moralità di un robot etico, Ronald Arkin e il suo staff di scienziati sono andati ormai oltre: per loro, infatti, non si tratta più di stabilire se sia giusto o sbagliato creare simili macchine, bensì come crearle. La strada, secondo Arkin, è infatti già stata intrapresa, ed è inutile frenare la ricerca. I robot eticamente programmati combatteranno in ogni caso le guerre del futuro. Perciò, bisogna fare in modo che, ad arrivare sul campo di battaglia, siano robot in grado di funzionare correttamente. Ed è su questo che si deve concentrare la ricerca.

Sarà. Eppure, credo che varrebbe la pena spendere ancora qualche energia per dare dei limiti invalicabili alla spersonalizzazione totale delle persone. Altrimenti, un giorno, uno scienziato si sveglierà e ci dirà che l’uomo può anche estinguersi: tanto ci sono i robot a sostituirlo.

Claudia

Studentessa in Lettere Moderne con la passione per la scrittura.