”La roboetica è una branca dell’etica che si occupa dei problemi etici legati all’impiego dei robot da parte dell’uomo
COMPENDIO DI ROBOETICA
Il prorompente progresso tecnico e scientifico dell’ultimo secolo, esploso in seguito alla seconda rivoluzione industriale, ha profondamente mutato il mondo e il nostro modo di relazionarci ad esso. Mai nella storia dell’uomo si è verificato un avanzamento tecnologico tanto imponente in un lasso di tempo così ristretto; se diverse sono state le novità e i cambiamenti apportati da questo processo, parallelamente sono emerse problematiche e questioni legate alle nuove tecnologie che hanno fatto discutere e di cui tuttora si discute. Tra le grandi conquiste tecnologiche del periodo vanno menzionate lo sviluppo dell’intelligenza artificiale e della robotica. La ricerca, invero insistente, in questi ambiti ha aperto una serie di discussioni e diatribe relative allo sviluppo e all’utilizzo di macchine intelligenti, al punto tale che la necessità di mettere ordine ad una serie di pensieri, idee e punti di vista, ha condotto tutte queste discussioni sotto l’ombrello di una nuova disciplina recentemente denominata roboetica.
La roboetica è una branca dell’etica che si occupa dei problemi etici legati all’impiego dei robot da parte dell’uomo, e che si interroga sulle questioni che sorgono dall’impiego di macchine autonome in relazione a persone, animali e cose. Si tratta, bisogna specificarlo, di un’etica da applicare agli umani, che progettano, costruiscono e usano i robot. Parliamo di un campo di studi che non è appannaggio esclusivo di una singola scienza, ma che anzi può essere corroborato dall’azione sinergica di più discipline attraverso un approccio olistico: neuroscienze, psicologia, biologia, filosofia e fisiologia sono solo alcune delle discipline che insieme possono contribuire allo studio e al perfezionamento della roboetica.
Bisogna premettere che la creazione di automi, con susseguente emergere di problematiche etiche, è un tema che affonda le proprie radici in culture in tempi profondamente distanti da noi. Basti pensare al fatto che nella tradizione ebraica è nota da secoli la figura leggendaria del golem: trattasi di una gigantesca creatura antropomorfa costruita in argilla, capace di obbedire ad un padrone e utilizzata, secondo la leggenda, per compiere lavori pesanti o per difendere la popolazione ebraica dai suoi persecutori; eloquente il fatto che il termine golem in ebraico moderno è traducibile con robot. Altri esempi, a testimonianza della tendenza umana a creare automi capaci di obbedire, ci giungono dalla letteratura; degno di nota è Frankenstein di Mary Shelley, dove più che mai sono evidenti le responsabilità del protagonista riguardo alla creazione e, soprattutto, all’agire della sua creatura.
Tassello importante nella divulgazione e teorizzazione delle questioni etiche relative alla robotica furono apportate da Isaac Asimov, prolifico scrittore del secolo scorso di romanzi fantascientifici, nei quali i robot hanno un ruolo di primo piano. Asimov va ad analizzare il rapporto tra l’uomo e le macchine autonome, iniziando quindi una riflessione di stampo etico. Nei suoi libri delinea tre leggi per tutelare gli esseri umani dagli automi da loro creati:
Prima Legge: «Un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno».
Seconda legge: «Un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge».
Terza legge: «Un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge».
Asimov si rende conto che un’intelligenza artificiale con implementate solo le prime tre leggi possa recare un danno all’umanità intera, senza danneggiare i singoli esseri umani; di conseguenza, nel racconto Io Robot, propone una legge zero per proteggere l’umanità: «Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno».
Le tre leggi sono una limitazione delle possibilità di azione del robot che deve sempre partire da una “sacralizzazione” della vita umana. La strategia della sacralizzazione rende inviolabile la vita umana e con la legge zero l’intera umanità viene sacralizzata e resa inviolabile per un robot. Asimov, con il termine robot, fa intendere tutti quei meccanismi autonomi dall’azione dell’uomo, che dunque possono agire autonomamente. L’autore cerca un modo per evitare che l’azione autonoma del robot possa ribellarsi al proprio “creatore” danneggiandolo; le leggi sono dunque una limitazione alle possibilità altrimenti svincolate dell’organismo autonomo. Queste leggi permettono di evitare le “distopie”, in cui l’essere umano deve competere con le macchine da lui create per le risorse, scenari possibili, ampiamente pensati dalla fantascienza.
Riferendoci a tempi più recenti, una presa di coscienza vera e propria, riguardo al tema etico applicato alla robotica, con la necessità di discuterne in maniera ufficiale, si ebbe con l’inizio del nuovo millennio, quando nel 2004 si giunse all’organizzazione del Primo Simposio internazionale sulla roboetica, tenutosi presso Villa Nobel a Sanremo, i giorni 30 e 31 gennaio. L’evento fu promosso dalla Scuola di Robotica di Genova, e per la prima volta venne utilizzato il termine roboetica per riferirsi alla questione etica dei robot. Da allora molti sono stati i passi avanti, sia in termini di divulgazione che di ricerca, con un numero sempre più ampio di conferenze, seminari e studiosi coinvolti in tutto il mondo.
Dalle recenti discussioni sul tema, si sono delineati fondamentalmente tre atteggiamenti nei confronti della roboetica: abbiamo quegli individui, o più generalmente studiosi, che vedono il loro lavoro e le loro ricerche come esenti da implicazioni di ordine etico e morale; vi sono poi quelli che tengono in considerazione l’impatto che le macchine intelligenti potrebbero avere nel breve periodo e abbiamo infine quella cerchia di studiosi interessati, e preoccupati, ai problemi etici sul lungo termine.
I temi che coinvolgono la roboetica sono numerosi, sfaccettati e complessi, e l’analisi approfondita di questi meriterebbe la scrittura di libri interi; dunque, lungi dalla pretesa di proporre un articolo completo ed esaustivo in ogni sua parte, l’intento che qui verrà portato avanti sarà quello di fornire al lettore una panoramica ampia delle principali problematiche sollevate dalla roboetica, al fine di far intuire e comprendere l’impatto che i robot possono, e potranno avere, sulla nostra vita individuale e sociale.
Partiamo da una questione preliminare. Guidati dalla vista, ciò che ci colpisce di un robot inizialmente è il suo aspetto. Noi esseri umani siamo naturalmente predisposti a inferire caratteristiche e comportamenti sulla base dell’apparenza estetica: basti pensare all’associazione istintiva tra bellezza e bontà, già testimoniata anticamente dalla καλοκἀγαθία greca. L’elemento estetico è quindi rilevante, dal momento che questo influenza il nostro atteggiamento nei confronti di chi abbiamo davanti. Un primo problema etico emerge quindi a partire dalla combinazione tra aspetto estetico e comportamento di un robot; è eticamente corretto, ad esempio, che un automa programmato per accudire le persone abbia un aspetto simpatico, benevolo e rassicurante, mentre un automa programmato per un uso di tipo militare o più generalmente destinato a compiti che prevedono un atteggiamento burbero, sia caratterizzato da soluzioni estetiche più severe, spigolose e austere. Una mancata coerenza tra forma e sostanza, relativa alla previsione del comportamento del robot, sarebbe quindi imputabile come eticamente scorretta, in quanto genererebbe un messaggio che verrebbe poi interpretato erroneamente dalla persona che interagisce con il robot. Si tratterebbe di una sorta di tradimento delle aspettative, una vera e propria menzogna perpetrata ai danni delle persone che si rapportano con la macchina.
Un’ulteriore problematica, che investe in maniera decisiva l’ambito economico e sociale, è quella che riguarda robot e lavoro. A partire dai primi anni del ‘900 si è adottato il modello produttivo della catena di montaggio, attraverso il quale si è assistito ad una progressiva specializzazione dell’operaio che deve eseguire un compito specifico in modo preciso, veloce e prolungato nel tempo; il nuovo processo di produzione palesava tuttavia richieste difficili da soddisfare per un essere umano, la cui capacità di concentrazione rimaneva bassa, e i ritmi di lavoro estenuanti portarono presto ad un’insofferenza generale; le richieste, infatti, erano più affini ad una macchina automatizzata. L’automazione del processo produttivo creò dei macchinari in grado di ripetere la stessa operazione, un numero indefinito di volte e senza necessità di pause, generando un vantaggio economico per l’azienda che condusse però alla conseguente perdita di posti di lavoro, che sfociarono in numerosi movimenti di protesta.
Le recenti innovazioni della robotica sembrano preannunciare il ritorno di una nuova avversione verso le macchine in quanto questo provoca dei danni socio-economici rilevanti, poiché molte persone possono essere licenziate, e in tal senso le categorie più colpite sono i colletti blu ma anche la classe media. La situazione non appare però del tutto negativa in quanto questi robot devono essere fabbricati, controllati e sottoposti a manutenzione, che vuol dire che produrranno nuovi posti di lavoro. Molti economisti stanno dibattendo se le due tendenze si equivalgono o se una delle due prevarrà sull’altra. Guardando al passato, più volte gli incrementi tecnici hanno fatto perdere dei posti di lavoro creando però nuove possibilità, permettendoci di passare da economie di sussistenza ad economie prevalentemente agricole, poi produttive, arrivando all’espletamento di servizi, e infine all’intrattenimento, modificando il nostro concetto di lavoro e il nostro rapporto con esso ma non il numero totale di persone impiegate.
Un’altra frangia di studiosi ritiene che la spinta all’automazione in ogni campo del lavoro ci condurrà in un contesto sociale in cui ogni attività sarà gestita e svolta da macchine intelligenti e dove, estremizzando, il ruolo dell’uomo sarà quello di addetto alla manutenzione delle macchine stesse, rimanendo così, in un certo modo, indispensabile. Da questa visione emergono due problemi fondamentali, che potremmo riassumere nelle seguenti domande: cosa fare del tempo libero che avremo? Come possiamo mantenere un margine umano rispetto a quello che fanno le macchine? Ovvero, cosa potremo noi fare in più rispetto ai robot?
Legato a doppio filo con l’argomento appena discusso è il tema dell’autonomia dei robot. Per un robot “autonomia” vuol dire saper svolgere un compito da solo senza interferenze. In questo contesto l’etica funziona da filtro: infatti alcuni compiti svolti in autonomia da macchine sono critici da un punto di vista etico, mentre presenterebbero conseguenze meno rilevanti se eseguiti da uomini. Esempio notevole in tal senso sono le macchine belliche: di chi è la responsabilità in guerra se ad operare sono armi autonome?
In generale il tema dell’autonomia vede contrapposte due diverse posizioni morali, ovvero consequenzialismo e deontologia. Per quanto riguarda la prima posizione si ammette che è bene ciò che porta a migliori conseguenze e in generale a un maggior piacere, a prescindere dal rischio di danni collaterali; per quanto concerne la visione deontologica, invece, ci sono diritti e doveri inviolabili che non possono essere trascurati, indipendentemente dalle conseguenze.
La robotica ha cercato di riprodurre la coscienza nei meccanismi autonomi per i vantaggi che questa produrrebbe nell’azione del robot. Per riprodurre la coscienza i ricercatori si sono spesso affidati a dei sensori e a dei meccanismi di controllo per rendere il più efficiente possibile un determinato compito. Alcuni ricercatori della Columbia University sono riusciti a far muovere un robot e fargli compiere azioni senza dargli alcun tipo di informazione su come farlo ma solo sulla cosa fare; quando il macchinario è riuscito a compiere l’azione richiesta i ricercatori hanno sostituito una sua parte con una malfunzionante per verificare se ci fossero cambiamenti nel suo schema di movimenti. L’apparato sperimentale si è ricalibrato per evitare di usare la parte difettosa e al contempo a compiere il suo obiettivo. In questo caso particolare, secondo alcuni, si potrebbe parlare quindi di autocoscienza perché il meccanismo autonomo ha dovuto creare un modello di sé per poter eseguire le operazioni richieste, e ha sviluppato una propriocezione in quanto ha modificato il suo comportamento per rispondere ad un guasto simulato. Se per i robot è possibile dunque sviluppare una coscienza di sé, bisognerebbe analizzare tutta una serie di problemi etici riguardo al loro sfruttamento da parte nostra, che potrebbero sfociare nella necessità della stesura di una serie di leggi atte a difenderne i diritti.
Quanto esposto può essere ricondotto a due casistiche generali: da un lato si hanno le problematiche dovute alla delega di una data azione ad un robot, dall’altro l’innovazione tecnologica che rende obsoleta l’azione umana. I risvolti etici in questi due processi si palesano in differenti momenti: nel caso dell’automazione di un soldato i problemi etici sono immediati, nel caso dell’automazione industriale le ripercussioni e i relativi problemi etici si manifestano su un periodo di tempo maggiore. Il dibattito sulla roboetica deve individuare dei principi etici in entrambi i casi o, meglio ancora, dei principi universali che si possano declinare applicati nei casi particolari.
Risulta ora evidente come le sfide e le implicazioni morali derivanti dall’utilizzo di macchine intelligenti siano estremamente rilevanti e in alcuni casi già attuali. Lo studio e la ricerca in campo etico, con la collaborazione di diversi campi del sapere, rappresentano il bastione di difesa dalle eventuali conseguenze deleterie di un progresso tecnologico che sta cambiando il nostro modo di vivere, oggi più che in qualsiasi altro periodo storico.
11 marzo 2020