Risoluzione UE sulla responsabilità dei robot: sarà mai possibile equiparare il robot ad un essere umano?

Alla luce della recente approvazione della Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica diventa sempre più attuale e preoccupante il problema connesso all’individuazione di norme che disciplinino l’attività ed in particolar modo la responsabilità dei robot nel nostro ordinamento.

L’umanità, ormai, si trova sulla soglia di un’era nella quale robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale (AI) sembrano sul punto di lanciare una nuova rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri tutte le implicazioni.

Tra il 2010 e il 2014 la crescita media delle vendite di robot era stabile al 17% annuo e che nel 2014 è aumentata al 29%, il più considerevole aumento annuo mai registrato, e che i fornitori di parti motrici e l’industria elettrico-elettronica sono i principali propulsori della crescita; che le richieste di brevetto per le tecnologie robotiche sono triplicate nel corso dell’ultimo decennio.

La robotica e l’intelligenza artificiale promettono di portare benefici in termini di efficienza e di risparmio economico non solo in ambito manifatturiero e commerciale, ma anche in settori quali i trasporti, l’assistenza medica, l’educazione e l’agricoltura, consentendo di evitare di esporre esseri umani a condizioni pericolose, come nel caso della pulizia di siti contaminati da sostanze tossiche.

Naturalmente gli aspetti giuridico-normativi dovranno essere trattati in maniera approfondita, disciplinando le interazioni fra umani e umanoidi sia nella sfera privata che in quella pubblica. Sarà necessario analizzare e risolvere diverse problematiche:

  1. di chi è la responsabilità in caso di danni o di infortuni causati da robot?
  2. Come proteggere la privacy degli individui?
  3. Come rendere disponibile ed accessibile a tutti l’intelligenza e la capacità sviluppata da robot al servizio dell’uomo?
  4. Che tipologia di assicurazione prevedere per i robot?

Il problema della responsabilità in caso di danni arrecati da robot o umanoidi può sembrare troppo avveniristico ma in realtà non è così perché già si stanno producendo robot che presto verranno avviati non solo nel mondo produttivo ma anche in quello sociale, si pensi ad esempio al recente prototipo di robot per il condominio (una sorta di portinaio hi-tech) che è stato recentemente presentato a Pisa, nel convegno sulle tecnologie al servizio dell’ambiente in cui si vive (Ambient Assisted Living), organizzato dalla Scuola Superiore Sant’Anna. La Co-Robotics, una spinoff della Scuola Superiore Sant’Anna ha realizzato anche il prototipo del robot domestico, una sorta di badante dall’aspetto molto simile a quello dell’altro. Entrambi sono nati dal progetto Robot Era, del valore complessivo di 8,7 milioni di euro.

Tutti e due i robot hanno un busto che può essere modificato a seconda della funzione, parlano e obbediscono ai comandi vocali. In più il robot domestico ha un braccio e una mano con tre dita. Non ha il cravattino, ma può comunque essere personalizzato, e ha un maniglione che può aiutare chi ha difficoltà a camminare. Sa inoltre accorgersi se la persona che è in casa è caduta e ha bisogno di aiuto e, infine, sa intrattenere con giochi cognitivi.

Entrambi i robot, che non hanno ancora un nome, sono fatti di un materiale economico e leggero: la plastica dei cruscotti delle auto. Un elemento, questo, che facilita la produzione su scala industriale e l’obiettivo è arrivare a un costo compreso fra 5.000 e 20.000 euro, per i modelli più complessi. Hanno dato risultati positivi, inoltre, i primi test condotti in strutture di ricovero fra Italia e Svezia, come la casa di cura San Lorenzo di Firenze, l’ospedale Inrca di Ancona e una clinica di Orebro. In strutture come queste i robot potrebbero essere utilizzati per trasportare lenzuola e coperte, consegnare il cibo ai pazienti, aiutare gli infermieri a distribuire i farmaci, sostenere le persone che non camminano in modo autonomo e offrire una supervisione utile per la sicurezza, con un risparmio notevole sui costi socio-sanitari e miglioramento sostanziale della qualità dei servizi per gli utenti e della qualità di lavoro per gli operatori.

E’, quindi, evidente che ci si trova di fronte a quella che è una vera e propria realtà e se al momento questi robot sono dei veri e propri esecutori materiali di ordini dell’uomo, in seguito, grazie ai notevoli progressi dell’intelligenza artificiale potranno essere in grado di avere una propria autonomia decisionale e di essere in grado di discernere tra il bene ed il male (secondo ovviamente il loro punto di vista). In tal caso effettivamente il problema di individuare specifiche responsabilità in caso di danni diventerebbe ancora più difficile.

Inoltre non va dimenticato che ormai sono sempre maggiori (nell’aeronautica gli esempi sono innumerevoli) i sistemi automatici contraddistinti da una forte interazione uomo-macchina dove diventa sempre più sottile la demarcazione tra le competenze dell’uomo e quelle della macchina. Altra questione molto complessa da risolvere in termini di responsabilità.

Come giustamente sostiene Jonas bisogna evitare che “sviluppi tecnologici di volta in volta avviati con obiettivi a breve termine, presentino la tendenza a rendersi autonomi acquisendo una propria dinamica coattiva in forza della quale non solo diventano irreversibili, ma acquistano una funzione propulsiva al punto da trascendere la volontà ed i piani degli attori.”[1]

La stessa Unione Europea sembra ormai consapevole di tali prospettive per cui proprio di recente è stata approvata dal Parlamento europeo una Risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.

La risoluzione parte dalla letteratura, citando Frankenstein, Pigmalione, il Golem di Praga fino a Karel Capek, lo scrittore ceco, che, come abbiamo visto, è stato l’inventore della parola robot. Poi passa sul terreno più concreto dell’economia. Le vendite di automi, impiegati soprattutto nelle industrie automobilistica ed elettronica, ma anche negli ospedali e nell’assistenza agli anziani, come si è già avuto modo di rappresentare sono cresciute nel mondo del 17% all’anno tra il 2010 e il 2014, per fare un balzo del 29% l’anno scorso. I brevetti nell’ultimo decennio sono triplicati.

La risoluzione suggerisce una sorta di tassa sui robot per rimpolpare il sistema previdenziale privato di tanti lavoratori umani. Ogni cittadino che impiega degli automi dovrà segnalarli allo stato, indicando anche quanto risparmia in contributi grazie alla sostituzione dei lavoratori in carne e ossa con quelli in acciaio e silicio.

Anche i robot dovranno rispettare le leggi. Prima di tutto quelle di Asimov, poi un codice di condotta redatto ad hoc da Bruxelles. Qualora un automa dovesse infrangere una norma o causare un danno a qualcuno, sarebbe giusto che ne risponda legalmente, soprattutto se dotato di intelligenza artificiale, di capacità di apprendere autonomamente e – come pure prevede la bozza di legge – di surclassare l’uomo in quanto a facoltà intellettive. Una sorta di registro traccerebbe l’identità di tutti i lavoratori artificiali in Europa, con un obbligo di assicurazione simile a quello previsto per le auto.

Lo sviluppo della robotica e dell’intelligenza artificiale possono portare a far sì che gran parte del lavoro attualmente svolto dagli esseri umani sia svolto da robot, sollevando preoccupazioni non solo sul futuro dell’occupazione, ma anche in termini di responsabilità.

Difatti per quanto riguarda la sicurezza fisica, ad esempio quando la codificazione di un robot si rivela fallibile, e per le potenziali conseguenze di un difetto sistemico o del pirataggio di robot intercollegati o di sistemi robotici, in un momento in cui sono in uso o sul punto di entrare in uso applicazioni sempre più autonome, che si tratti di automobili, di droni o di robot impiegati per l’assistenza o per il mantenimento dell’ordine pubblico.

Grazie agli strabilianti progressi tecnologici dell’ultimo decennio, non solo oggi i robot sono grado di svolgere attività che tradizionalmente erano tipicamente ed esclusivamente umane, ma lo sviluppo di caratteristiche autonome e cognitive – ad esempio la capacità di apprendere dall’esperienza e di prendere decisioni indipendenti –li ha resi sempre più simili ad agenti che interagiscono con l’ambiente circostante e sono in grado di alterarlo in modo significativo; che, in tale contesto, la questione della responsabilità giuridica derivante dall’azione nociva di un robot diventa essenziale.

L’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; che tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente.

Naturalmente più i robot sono autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori (quali il fabbricante, il proprietario, l’utilizzatore, ecc.); che ciò, a sua volta, rende insufficienti le regole ordinarie in materia di responsabilità e rende necessarie nuove regole incentrate sul come una macchina possa essere considerata – parzialmente o interamente – responsabile per le proprie azioni o omissioni; che, di conseguenza, diventa sempre più urgente affrontare la questione fondamentale di uno status giuridico dei robot.

L’autonomia dei robot solleva la questione della loro natura alla luce delle categorie giuridiche esistenti – se devono essere considerati come persone fisiche, persone giuridiche, animali o oggetti – o se deve essere creata una nuova categoria con caratteristiche specifiche proprie e implicazioni per quanto riguarda l’attribuzione di diritti e doveri, compresa la responsabilità per i danni. Se cioè devono essere considerati soggetti o oggetti di diritto.

Fino ad adesso si sono esaminati i casi di responsabilità civile, ma la stessa problematica potrebbe porsi in caso di reati commessi tramite robot o umanoidi dove questi ultimi potrebbero non essere considerati semplicemente degli strumenti, ma, in quanto dotati di un’evoluta intelligenza artificiale assumere dei livelli di responsabilità più elevati.

Come è noto nel nostro ordinamento vige il principio di soggettività che sta ad indicare che, per aversi reato, non basta che il soggetto abbia posto in essere un fatto materiale offensivo, ma occorre altresì che questo gli appartenga psicologicamente, che sussista cioè non solo un nesso causale ma anche un nesso psichico tra l’agente ed il fatto criminoso, onde questo possa considerarsi opera di costui.

E’ chiaro quindi che la responsabilità penale possa imputarsi solo all’individuo, anche perché, come è noto, la sanzione è la privazione della libertà personale. Proprio perché la responsabilità penale si configura dimostrando almeno la colpa, mai potrebbe essere attribuita direttamente al produttore come potrebbe accadere in caso di danni arrecati a terzi da robot.

Ma diverse sono le ipotesi di reato che possiamo considerare attraverso l’utilizzo di robot o automi ed è il caso adesso di procedere ad una breve disamina.

  1. Omicidio commesso da un uomo che utilizza un dispositivo robotico semplicemente come strumento cioè come arma. In tal caso ovviamente non si porrebbe alcun problema poiché il reato sarebbe ascrivibile totalmente all’individuo.
  2. Omicidio commesso da un uomo che utilizza il robot come mero esecutore della propria volontà omicida (nuncius). In tal caso la questione diventa più complessa poiché già ci troviamo di fronte ad un robot dotato di un’intelligenza artificiale elevata tale da comprendere ed eseguire i comandi di un uomo. Che responsabilità può configurarsi a carico del robot?, E’ in grado di comprendere il disvalore sociale del fatto criminoso? E’ imputabile?
  3. Omicidio commesso da un uomo che intendeva utilizzare il robot solo per minacciare altri soggetti ed invece il robot non si limita a minacciare ma uccide. Anche in tal caso si dovrà capire fino a che punto possa attribuirsi la volontà omicida al robot (intelligenza artificiale forte e quindi piena autonomia) o se non si sia trattato di un malfunzionamento. Ed in quest’ultimo caso?

Secondo i sostenitori dell’ intelligenza artificiale forte i computer possono riprodurre processi intellettuali identici a quelli umani, mentre per i sostenitori dell’intelligenza artificiale debole le macchine possono soltanto simulare i processi intellettuali umani.

Naturalmente l’esempio fatto per l’omicidio potrà essere riproposto anche per altri reati ma indubbiamente si porrà sempre più il problema dell’incapacità delle norme tradizionali di affrontare la questione della responsabilità di un robot che diventi sempre più in grado di prendere decisioni autonome.

La prospettiva finale potrebbe essere quella dell’istituzione di uno status giuridico specifico per i robot, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche con diritti e obblighi specifici.

Tale potrebbe essere il quadro che si verrebbe a delineare quando l’intelligenza artificiale dovesse superare la capacità intellettuale umana al punto che, se non saremo preparati, potrebbe mettere a repentaglio la capacità degli umani di controllare ciò che hanno creato e, di conseguenza, anche la loro capacità di essere responsabili del proprio destino e garantire la sopravvivenza della specie.

Ma al fine di avere un quadro più chiaro sulle problematiche emergenti in tale settore analizziamo le storiche leggi della robotica elaborate nei suoi racconti da Isaac Asimov che per primo ipotizza la esistenza di macchine pensanti talmente elaborate da poter adottare decisioni discrezionali, ragione per la quale era necessario porre dei limiti simulando la morale umana.

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Ora per Asimov, che era uno scienziato, neppure le tre leggi sono perfette come dimostrano alcuni racconti. Ad esempio una frase sfuggita per errore (“sparisci”) può essere interpretata in maniera errata e determinare un esemplare costoso a nascondersi senza possibilità di recupero; o comunque per determinate attività, come quella del chirurgo, si possono determinare conflitti insanabili nel caso di terapie sperimentali suscettibili di cagionare danni se si interviene e di permettere che la malattia diventi letale se non si interviene.

Vi è un dato che occorre tener presente comunque: la discrezionalità del robot quale macchina pensante sino a che punto può essere considerata omologa a quella dell’uomo?

Il robot per quanto riesca a simulare il ragionamento umano resta una macchina e ciò significa responsabilità del programmatore e/o dell’utilizzatore.

Il robot segue i percorsi logici impressi nel cervello positronico secondo una strada comunque delineata da altri (chi lo ha programmato o chi ha impartito l’ordine). E’ dotato di logica ma manca di quella libertà decisionale tipica dell’uomo (il libero arbitrio).

Così è paragonabile ad un soggetto che agisce sotto ipnosi o ad un monomaniaco che ha la capacità di ragionare ma la stessa è compromessa dalla mania da cui è affetto (paragonabile ad un limite della programmazione di cui chi impartisce l’ordine può approfittare).

Il caso è previsto dall’art. 111 codice penale: “Chi ha determinato a commettere un reato una persona non imputabile, ovvero non punibile a cagione di una condizione o qualità personale, risponde del reato da questa commesso, e la pena è aumentata. Se si tratta di delitti per i quali è previsto l’arresto in flagranza la pena è aumentata da un terzo alla metà. Se chi ha determinato altri a commettere il reato ne è il genitore esercente la potestà, la pena è aumentata fino alla metà o, se si tratta di delitti per i quali è previsto l’arresto in flagranza, da un terzo a due terzi”.

Naturalmente il principio di legalità nel diritto penale non consente di applicare per analogia la norma al caso in cui il reato sia commesso da un robot (che non è una “persona”) e quindi è auspicabile che in futuro il legislatore estenda la previsione della fattispecie ai robot (chi ha determinato a commettere un reato un robot).

Giova sottolineare che la “imputabilità” è definita dal legislatore (art. 85 c.p.) come capacità di intendere (ovvero comprendere il significato delle proprie azioni ed i comandi contenuti nelle norme) e di volere (ovvero capacità di autodeterminarsi, di scegliere la condotta da tenere, in base ad un movente personale).

Così il robot, per quanto intelligente, non è imputabile perché resta una “macchina” costruita da altri, sulla base di moventi altrui. Ciò comporta la responsabilità di chi l’ha progettata (qualora la progettazione sia stata dolosamente concepita al fine di consentire la commissione di un reato o sia stata errata per imprudenza, negligenza e imperizia) o comunque la responsabilità di chi ha impartito le direttive in base alle quali si è sviluppata l’azione delittuosa.

Allo stato restano quindi applicabili le regole generali per cui negli esempi, di cui sopra, in tema di omicidio ai punti 1 e 2 rimane la responsabilità dell’uomo che ha voluto l’azione delittuosa ed in tal senso ha impartito ordini alla macchina.

Quanto al punto 3, qualora si accerti che il soggetto intendeva utilizzare il robot solo per minacciare o cagionare lesioni, ma l’azione del robot ha determinato la morte occorre procedere secondo le categorie ordinarie del dolo eventuale e della colpa:

– se il soggetto aveva la possibilità di prevedere una reazione ulteriore del robot ed ha accettato il rischio di un evento più grave si potrà parlare di dolo eventuale;

– se il soggetto ha agito per imprudenza, negligenza o imperizia nell’impartire l’ordine, allora si avrà colpa.

Ipotizziamo, a questo punto, che in futuro si possano sviluppare tecniche per consentire al robot di operare scelte in autonomia. Ciò non lo renderà “persona fisica” essendo comunque frutto di costruzione dell’uomo. Il tema, quindi, non è quello della intelligenza (che può essere artificiale e riprodurre i percorsi logici umani) ma è quello della formazione dell’intimo volere che nell’uomo resta imprevedibile, andando oltre la logica. E nel caso in cui si programmasse un robot capace di azioni imprevedibili, qualora il robot commettesse reati per effetto di tale programmazione, sarebbe sempre ipotizzabile la responsabilità del programmatore (dolosa o per colpa).

Analizzando la questione sotto altro profilo e volendo creare un laico parallelismo tra robot ed essere umano si può dire che:

– il robot sta al programmatore/utilizzatore come il figlio sta ai genitori;

– il robot non è responsabile dei reati ai quali è stato indotto dal suo programmatore/utilizzatore  così come non è responsabile il minore non imputabile per i reati ai quali è stato indotto dai genitori (ex art. 111 c.p. sopra richiamato).

Resta un quesito: il figlio con la maggiore età si affranca dai genitori che lo hanno generato ma non ne hanno la proprietà, mentre il robot si può affrancare da chi ne ha la titolarità?

A tal proposito viene in mente il romanzo di Asimov “L’uomo bicentenario” che narra di un robot talmente perfetto da poter simulare le emozioni umane; il robot riuscirà ad ottenere la soggettività giuridica dopo la rinuncia dell’ultima titolare, ma per ottenere la piena e tanto desiderata equiparazione all’essere umano a cui immagine e somiglianza è stato creato deve compiere un ultimo passo decisivo: programmare lui stesso la sua morte.

 

[1] H. Jonas, Il principio di responsabilità, Torino, 1979