La Roboetica: come dovranno comportarsi i Robot?

Ad oggi l’evoluzione rapida e mutevole delle tecnologie, ed in particolar modo della robotica, ci pone davanti a dilemmi di natura etica e morale: fin dove è giusto spingersi nella realizzazione di dispositivi “sensienti”? Come sapere se faranno sempre la cosa giusta? E qual è la cosa giusta? 


Domande, e solo alcune, che prevedono la necessità di non costruire spasmodicamente e dare libero sfogo alla propria inventiva; bisogna capire...qual è il limite da imporre all’immaginazione?
Sulla scia di queste domande lo scienziato, robotico sperimentale, Gianmarco Verruggio, Dirigente di Ricerca del CNR e non solo, ha coniato nel 2002 il termine Roboetica, nell’ottica di far comprendere la necessità di definire limiti e obiettivi della robotica.
Sicuramente un primo problema da affrontare potrebbe essere rappresentato dalla responsabilità civile ed etica legata ai danni che i robot potrebbero causare. Nel momento in cui si realizzeranno robot supportati da AI, il tipico malfunzionamento, che può sempre verificarsi per svariati motivi, potrebbe decretare scenari a dir poco catastrofici quando a subire l’avaria è, per esempio, un robot-soldato, che potrebbe riconoscere come nemico il suo stesso battaglione; o, perché no, un semplice robot-operaio che, anziché provvedere alla movimentazione delle macchine da cantiere per lo spostamento del materiale le adopera per distruggere il fabbricato in costruzione. A chi è imputabile la colpa?
Pensiamo in particolar modo ai robot adoperati nell’ambito militare, questi saranno certamente equipaggiati per resistere agli attacchi nemici e generare tattiche di difesa e contrattacco, come fermarli se non sono più governati dalle leggi della robotica a causa di un bug nel sistema?
L’idea di scenari apocalittici non deve però generare panico e “robofobia”, ma fornire degli spunti su cui riflettere per regolamentare il comportamento dei robot ed il rapporto robot-umano.
Quest’ultimo, infatti, potrebbe divenire particolarmente complesso da gestire, considerando soprattutto l’idea di robot “emotivi”, per i quali si potrà provare affetto, non solo come se fossero degli animali domestici, ma anche degli amici, fino a paventare l’idea di potersi addirittura innamorare di loro. Genereremmo in tal modo una società in via di autodistruzione, dove si potrebbe interrompe qualsiasi contatto tra umani e perdere la percezione dell’ambiente che ci circonda, dello spazio e del tempo, in nome di un affetto effimero.
Ma i robot potrebbero anche aiutarci a vivere meglio, potrebbero occuparsi dell’assistenza agli anziani soli e indigenti, di spostare merci e materiali eccessivamente pesanti in luoghi angusti, di ripulire la terra da plastiche e materiali inquinanti e altamente tossici, un po’ come Wally, il rover ideato dalla Disney.
La roboetica non solo immagina quali potrebbero essere le modalità per proteggere la specie umana, ma, considerando la possibilità di robot dotati di coscienza ed intelligenza, pone anche l’accento su eventuali diritti e tutele di questi ultimi.
L’esigenza di una regolamentazione nei riguardi della robotica ha spinto la Comunità Europea a generare una Risoluzione ( Norme di diritto civile sulla robotica – Risoluzione del parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)) nella quale, tra i vari punti, rintracciamo una prima definizione di robot autonomo e intelligente, ma anche l’idea di strutturare una sorta di “[...] registro dei robot avanzati presenti nel mercato interno dell’Unione [...]”; non solo, si rammenta un essenziale antropocentrismo nel controllo delle macchine intelligenti e la necessità di una particolare attenzione “[...] all’attaccamento emotivo tra uomini e robot [...]”. Si affronta inoltre il tema della comprensibilità, sempre e comunque, delle azioni svolte dalle macchine intelligenti da parte dell’uomo, e della realizzazione di una di scatola nera per la loro tracciabilità.
Nel tentare di stabilire un primordiale codice etico, legato più a quello che sarà che a quello che già è, si definiscono pochi punti essenziali ma che rappresentano una chiara dichiarazione d’intenti:
• “[...] beneficenza: i robot devono agire nell'interesse degli esseri umani;
• non-malvagità: la dottrina del "primum, non nocere", in virtù della quale i robot non devono fare del male a un essere umano;
• autonomia: la capacità di adottare una decisione informata e non imposta sulle condizioni di interazione con i robot;
• giustizia: un'equa ripartizione dei benefici associati alla robotica e l'accessibilità economica dei robot addetti all'assistenza a domicilio e, in particolare, a quelli addetti alle cure sanitarie. [...]”
Dunque l’idea non è quella di spaventare i già robo-scettici e alienare con la tangibile possibilità che i robot un giorno possano diventare la “specie” dominante, ma cercare di apprendere dalla storia anticipando eventuali comportamenti sconsiderati con una legislazione ed un codice etico rivolto ai padri e alle madri della robotica, per evitare l’involuzione della specie umana.

 

Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL))
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//IT#BKMD-12 

 

A cura di Ilaria Mararzzo.

  • Creato il