I ROBOT RISPONDONO DELLE PROPRIE AZIONI?

I ROBOT RISPONDONO DELLE PROPRIE AZIONI?

access_time 1 anno ago

Oggetti giuridicmente ambigui

Era il 14 Febbraio 2015 quando a Mountain View, un piccolo paese della California, si verificò un avvenimento piuttosto insolito. Dopo tanti chilometri percorsi senza alcun intoppo, la “Google Car”, appartenente al gruppo delle cosiddette “macchine robotiche” in grado di rilevare l’ambiente circostante in maniera autonoma ed effettuare la navigazione senza intervento umano con tecniche come il radar, il GPS e la visione artificiale, provocò il primo incidente che, per buona sorte, non causò nessuna vittima.

L’evento ha tuttavia interpellato la società americana, i tecnici, gli ideatori e i suoi avvocati. In particolare è sorto un interrogativo a seguito dell’incidente, ovvero, in casi come quello appena descritto con l’aggravante di una vittima, chi sarebbe il responsabile dell’accaduto? Il proprietario del veicolo, il costruttore, il progettista dei suoi sensori o l’autore del software? Oggi, in un incidente “tradizionale”, sono i conducenti a rispondere della vettura. Ma cosa accadrà quando le macchine non ne saranno più dotate? Nessuno, per ora, ha fornito una risposta credibile.

Un vuoto giuridico da colmare

Nel momento in cui la robotica sta rivoluzionando il modo di vivere comune, questo vuoto non può passare inosservato. Dopo i robot utilizzati in ambito medico già da molto tempo, i droni militari recentemente operativi nei teatri di conflitto, gli androidi di intrattenimento o di assistenza alle persone, dovrebbe presto auspicarsi un intervento che prendi in considerazione questo aspetto non secondario. Basterebbe un’imprecisione, un piccolo errore o un singolo guasto a rendere queste “macchine intelligenti”, in grado di aiutare l’uomo, un pericolo per lo stesso.

Come devono essere classificati giuridicamente? Attualmente i robot, le cui azioni sono pre-programmate, sono disciplinati nello stesso identico modo dei “prodotti difettosi”. In caso di malfunzionamento, la responsabilità è del costruttore. Ma dal momento che il futuro dei robot è sempre più autonomo, ed essendo dotati d’intelligenza artificiale sempre più avanzate, aumenta di conseguenza anche la loro operatività dal punto di vista decisionale in tempi immediati senza la possibilità di una pianificazione completa. Come identificarli secondo legge?

Un fondo di compensazione per le vittime dei robot?

Prevedere il comportamento dei robot diventa infatti impossibile. La distinzione tra la macchina, oggetto senza intenzionalità, e la persona, soggetto responsabile, decade. Siamo di fronte ad oggetti di legge non identificati.

Questa vaghezza ha anche un impatto sulla ricerca e l’innovazione, perchè trattandosi di macchine fallibili e non riuscendo a definire chiaramente le responsabilità in caso di guasto, i produttori rifuggono da progetti davvero innovativi, semplicemente per paura di conseguenze legali e finanziarie. I ricercatori che operano in questo campo temono sempre di più per il loro futuro e chiedono per tali ragioni la fissazione di regole chiare e immediate.

Se i singoli stati tentennano, il Parlamento Europeo ha approvato a metà febbraio un progetto di risoluzione in materia. «L’emergere di robot più autonomi richiede di pensare a nuove soluzioni», dice Mady Delvaux, appartenente al Gruppo dell’Alleanza progressista di Socialisti e Democratici al Parlamento Europeo, autrice del testo: “Norme di diritto civile sulla robotica”, dove si chiede in particolare, la creazione di un fondo di compensazione per risarcire le vittime degli automi, rifornito dai produttori e dai rispettivi fruitori. Altri sposano l’idea di poter dotare i robot di una “scatola nera” per tracciare la storia delle loro decisioni e ricostruire così le dovute responsabilità. Altri ancora vogliono che l’incombenza ricada sul proprietario della macchina, lasciando a quest’ultimo la possibilità di stabilire un “contratto assicurativo”. In breve, nulla di decisivo.

“Prigioni e multe”

La relazione Delvaux invita inoltre la Commissione europea a prendere in considerazione, in ultima analisi, la possibilità di “riconoscere ai Robot delle responsabilità giuridiche dirette”. Ma tale proposta secondo alcuni implicherebbe un cambiamento di civiltà. Approvare questo significherebbe, concedere ai robot il pieno riconoscimento della capacità di prendere decisioni autonome, e contemporaneamente riconoscergli la possibilità di poter godere dei diritti e adempiere degli obblighi. Questo introdurrebbe delle logiche veramente paradossali quali ad esempio le prigioni e le multe anche per i Robot nel caso in cui dovessero violare delle leggi.

Dubbi

L’incertezza giuridica rimane ed il quesito iniziale non cambia. In caso di vittime, chi sarebbe eventualmente il reale interlocutore diretto per sancire le responsabilità non prestabilite dell’atto di un robot? Tutto tace.

© RIPRODUZIONE RISERVATA

content_copyCategorized under