Automi impiegati in guerra o nell'assistenza sociale, capaci di prendere decisioni in autonomia. Militari e scienziati: "Dobbiamo dare loro delle regole perché non facciano danni agli umani"
di ERNESTO ASSANTE
ISAAC Asimov, molti anni fa, stabilì le tre leggi fondamentali della robotica, regole che i robot, nei suoi libri di fantascienza, non avrebbero mai trasgredito e che avrebbero governato per sempre il loro comportamento. La prima regola è che un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno. La seconda dice che un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la Prima Legge. La terza stabilisce che un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e/o la Seconda Legge.
Quando Asimov scriveva le sue direttive i robot veri, quelli che l'uomo aveva già creato, erano molto lontani dall'essere in grado non solo di trasgredire, ma anche di osservare quelle regole, tanto erano indietro nel loro percorso evolutivo. Oggi non è più così: "E' da più di un anno che 14 aziende in Giappone e in Corea del Sud hanno messo a punto dei robot che si occupano dei bambini. Bisognerà capire se questo porterà a una diminuzione di cura dei bambini o no", ha scritto in un articolo sulla rivista americana Science, Noel Sharkey, professore di intelligenza artificiale e robotica all'Università di Sheffield, interrogandosi sul ruolo, sempre più importante, che i robot stanno prendendo nella nostra vita. "E' giunta l'ora di stabilire delle regole etiche per i robot", dice il professore, per fare in modo che il comportamento di queste macchine non porti danni all'uomo.
Il problema se lo stanno ponendo anche gli esperti di robotica del Pentagono, che hanno stanziato circa 4 miliardi di dollari sulla ricerca di droni da mandare sul campo di battaglia. Colin Allen, professore con una cattedra in filosofia della scienza presso la Indiana University, ha scritto un libro sul tema, "Moral Machines: Teaching Robots Right From Wrong": "è davvero possibile fare in modo che armi automatizzate siano in grado di conformarsi alle leggi di guerra. Possiamo o no usare la teoria dell'etica per progettare queste macchine? E ora che si cominci a prendere in considerazione questo genere di problematiche, invece di limitarsi ad attendere finché non sarà troppo tardi. Abbiamo in circolazione computer che prendono decisioni e lo fanno in maniera eticamente neutra".
E' possibile integrare le tre direttive di Asimov nei robot militari? "Terribile" dice Noel Sharkey "ho lavorato nel campo dell'intelligenza artificiale per decenni e l'idea che un robot debba prendere decisioni sulla terminazione di vite umane è semplicemente terrificante". L'attenzione del ricercatore inglese è puntata comunque non solo sui rischi delle applicazioni militari, dove i robot sono già ampiamente utilizzati, ma soprattutto su gli usi civili, quelli di assistenza a bambini o anziani, o ai malati, come già avviene con il robot giapponese "My Spoon" che dà da mangiare ai malati. "L'aiuto che i robot possono dare ai genitori per la cura dei bambini è grande", scrive ancora Sharkey, "e non c'è dubbio che la frequentazione di un robot può essere un esperienza divertente e stimolante per un bambino, sempre che questa frequentazione non duri troppo a lungo". Ma bisogna ancora capire quali possono essere i risvolti psicologici di questa compagnia, sottolinea Sharkey, ricordando che gli studi fino ad oggi condotti sulle scimmie hanno portato alcune volte a risultati inquietanti.
Lo scienziato è sicuro che i robot avranno sempre più spazio, ricorda che è stato lo stesso Bill Gates a predire che nei prossimi anni vivremo sempre più assieme ai robot. "Ci siamo fatti sorprendere dall'esplosione di internet, sarebbe bene che non accadesse la stessa cosa con i robot", ha detto Sharley alla France Presse, "E' preferibile stabilire delle norme etiche adesso, prima che l'utilizzo massiccio dei robot lo renda difficile". Sharkey, comununque, non ha paura che i robot possano prendere il controllo degli umani in futuro, "sono solo delle macchine senza cervello, che non pensano da sole, malgrado tutto quello che ci ha insegnato la fantascienza".
C'è addirittura chi pensa che i robot possano avere un comportamento migliore di quello degli esseri umani, quantomeno sui campi di battaglia. Ne è convinto Ronald Arkin, professore al Georgia Tech, e autore di alcuni software per i robot militari dell'esercito americano: "La mia ipotesi di ricerca è che i robot possano agire più eticamente sul campo di battaglia di quanto facciano adesso gli esseri umani. Dotandoli di alcune regole che non possano essere infrante". Sharkey ricorda che sia Israele che la Corea del Sud hanno già installato robot armati lungo i loro confine, robot e che manca poco agli scienziati di quei paesi per sviluppare robot da battaglia in grado di prendere decisioni da soli su quando attaccare: "Non stiamo parlando di un futuro lontano, ma di una realtà di domani, sulla quale è bene ragionare".
Fonte: la Repubblica
Nessun commento:
Posta un commento