“ROBOT A SCUOLA DI ETICA”

“ROBOT A SCUOLA DI ETICA”

access_time 1 anno ago

Come impedire ai robot di diventare un pericolo per la vita umana? Gli esperti offrono varie risposte.

Una sempre più accreditata opzione consiste nell’assicurare che i dispositivi siano addestrati a prendere decisioni giuste in scenari etici complessi. Gli esseri umani dovrebbero cioè “insegnare” alle macchine a scegliere il corretto modo d’agire nel momento in cui si trovano ad operare sulla strada, negli spazi aerei, nelle case, negli ospedali e in tutti quei contesti che richiedono un certo grado di responsabilità.

I ricercatori dell’Istituto di Tecnologia del Massachusetts, uno dei maggiori centri di studio in campo internazionale con sede a Cambridge, hanno creato un sito web per sondare le intuizioni del pubblico sui problemi etici riguardanti le autovetture chiamate a sostenere scelte sempre più autonome, al fine di constatare se le proposte offerte possono essere sperimentate ed eventualmente inserite nei software degli stessi veicoli.

Altre scuole di pensiero sostengono che il principio del duplice effetto, secondo cui un’azione può essere definita lecita sebbene da essa possano derivare almeno due conseguenze, una positiva e l’altra negativa, dovrebbe essere integrato nel sistema computazionale delle macchine autonome.

Eppure, tutto ciò forse non basterebbe ad affrontare la complessità del problema.

In effetti il Professor James Harland, insegnante di logica al Royal Melbourne Institute of Technology, conosciuto a livello internazionale soprattutto per il suo lavoro sui sistemi informatici, il ragionamento automatizzato, la programmazione logica e le macchine Turing, in un’intervista riportata dal sito web The Conversation, sostiene che gli studiosi impegnati nel campo dell’automazione dovrebbero essere sottoposti a una preparazione curricolare nel campo della filosofia morale:

«Spesso i ricercatori sono esperti in settori relativamente stretti e potrebbero non avere alcuna formazione formale in materia di etica o di ragionamento morale. È proprio questo tipo di ragionamento che viene sempre più richiesto».

La robotica così come l’intelligenza artificiale offrono dunque altri buoni motivi per ripensare in modo più chiaro i  criteri scelti dagli esseri umani per compiere le proprie scelte. 

© RIPRODUZIONE RISERVATA

content_copyCategorized under