96958

La Dichiarazione Universale dei Diritti dei Robot


Ovvero, come munire le macchine della capacità di discernere ordini “giusti” e “sbagliati”, e di come tale capacità li renda potenzialmente simili ad esseri senzienti.


Roboetica: una parola sempre più in voga negli ultimi anni. Si tratta, in estrema sintesi, dell’applicazione dell’etica alla robotica, e risponde fondamentalmente al seguente quesito: quali sono i giusti criteri da considerare nella costruzione, nella progettazione e nell’utilizzo dei robot? Questi criteri dovrebbero, in effetti, essere tali da garantire che in nessun caso, durante il suo intero ciclo di vita, un automa possa nuocere direttamente o indirettamente al genere umano, operando costantemente nel pieno rispetto dei principi della Dichiarazione universale dei diritti umani. Tuttavia, da una diversa prospettiva, lo sviluppo di automi muniti di intelligenza artificiale sempre più sofisticata può far nascere un’altra questione: i robot devono sempre obbedire agli ordini impartiti dagli umani?

Allo scopo di chiarire le complesse implicazioni di questa domanda, in questo articolo viene riportato (tra gli altri) il seguente esempio: supponiamo di avere un robot addetto alle faccende domestiche a cui il proprietario ordina di lavare tutti i suoi “vestiti sporchi”, anche se tutti gli abiti in casa sono freschi di lavanderia. Quale dovrebbe essere il comportamento dell’automa? Nel caso peggiore di esecuzione cieca del comando, si otterrebbe stavolta al più l’effetto tutto sommato innocuo (seppur assai seccante) di un rilavaggio completo di tutti i propri capi.

Esistono tuttavia casi molto più delicati: che dire, ad esempio, di un robot assistente cuoco che maneggia un coltello da cucina e a cui viene ordinato di avvicinarsi stando alle spalle dello chef? O, ancora, di un veicolo autonomo a cui viene ordinato di portarci all’aeroporto nel più breve tempo possibile, esortandolo a ignorare ogni limitazione di velocità o divieto perché siamo in ritardo e rischiamo di perdere il volo?

Appare chiaro da questi esempi che esiste un compromesso tra due esigenze: quella di assicurare che i robot eseguano il compito loro assegnato e quella di assicurare che, nella stessa esecuzione del compito, il comportamento del robot non generi pericoli o danni agli umani. L’autore del già citato articolo è Matthias Scheutz, direttore del laboratorio Hrilab dell’Università di Tufts, in cui si conducono suggestive ricerche e sperimentazioni sull’interazione tra esseri umani e macchine.

I ricercatori dell’Hrilab hanno infatti sviluppato degli algoritmi che consentono agli automi di effettuare delle inferenze basandosi sui comandi ricevuti dall’uomo: in altri termini, essi sono in grado di analizzare il contesto dello scenario in cui viene impartito l’ordine, e selezionare la strategia più corretta per soddisfare la richiesta senza violare la sicurezza degli umani e, possibilmente, la propria integrità e quella degli oggetti presenti. Nell’esempio dell’articolo, supponendo che il comando sia:”lancia quel pallone dalla finestra”, il robot può segnalare all’umano che lo sta impartendo che esso comporterebbe una azione potenzialmente pericolosa (specialmente se il pallone finisse in strada a forte velocità, urtando il cristallo di un auto che sopraggiunge).

Spesso, però, è necessaria un’analisi del contesto più complessa: prendiamo il caso in cui l’ordine sia: “giochiamo a palla contro la parete di questa stanza”, e poniamo che sulla parete sia posta una finestra. Che valutazioni dovrebbe fare il robot per evitare possibili danni? E non si tratta, in fondo, delle medesime valutazioni che anche un essere umano sarebbe tenuto a compiere in ogni contesto?

Un altro punto di fondamentale importanza è che, secondo i principi della roboetica, un robot non dovrebbe eseguire azioni illegali, anche se tali azioni, di per sè stesse, non comportano un danno diretto agli esseri umani: questo tipo di scenario tuttavia, si rivela assai delicato e complesso, con un esito fortemente dipendente, ancora una volta, dall’analisi del contesto. Supponiamo, ad esempio, che un essere umano comandi ad un robot di scassinare la serratura di una porta. Di quali informazioni, o algoritmi, la macchina dovrebbe essere munita per stabilire se l’azione risultante viola o meno una legge?

Infatti, questa azione potrebbe essere ordinata per effettuare un’operazione di soccorso, utile a salvare persone rimaste intrappolate in un ambiente pericoloso. Oppure, per impossessarsi di beni di proprietà altrui. Come stabilire il confine? In generale, appare chiaro che i robot dovrebbero essere muniti di una base di conoscenza relativa alle norme, ai principi sociali e civili e persino a quelli dell’etichetta, in modo da filtrare gli ordini che potrebbero sortire come effetto un comportamento pericoloso, illegale o anche solo sgradevole.

Di conseguenza, si dovrebbe richiedere a un robot una conoscenza assai più ampia di quello comunemente posseduta da un essere umano, perchè mentre quest’ultimo dovrebbe essere munito di “buon senso”, che pur ignorando le leggi gli viene in soccorso, il primo invece non dovrebbe, in teoria, possederne. Come spesso capita, l’applicazione dei principi dell’etica alle macchine conduce anche in questo caso alla necessità di approfondire i vincoli e i principi che l’umanità stessa dovrebbe tenere in conto nelle proprie azioni, in modo da generare comandi per le macchine di più elevata qualità.

Come evidenziato nei vari esempi, si giunge in questo campo a un apparente paradosso: per imparare a obbedire nel senso più pieno del termine, i robot dovrebbero avere anzitutto la capacità di disobbedire. E proprio questa capacità li renderebbe, assai probabilmente, qualcosa di molto vicino ad un soggetto senziente a cui ci si dovrebbe chiedere se debbano o meno essere concessi diritti simili a quelli sanciti dalla Dichiarazione Universale.

Fonte