Italiano Inglese

Tra etica e rischi vari, è forse tempo di riscrivere le leggi delle robotica - di Gianluca Cimini

Astrofisici, inventori, imprenditori, filosofi e scienziati, si stanno interrogando e ponendo la stessa domanda da diverso tempo cercando di darsi al più presto una risposta e di porre magari le basi per una possibile regolamentazione futura sull’argomento, ossia: cosa accadrà quando l’etica umana verrà scombussolata da sistemi di intelligenza artificiale dotati di una serie di regole in contrasto con le nostre?

Tra apocalittici e integrati, le famose leggi della robotica create da Isaac Asimov a cui rispondono tutti i robot positronici (ossia dotati di un dispositivo immaginario ideato dallo stesso scrittore russo e chiamato cervello positronico, il quale può essere benissimo inteso come intelligenza artificiale) proprio ultimamente sembrano essere state violate per la prima volta nel mondo reale, ma, a dirla tutta, i robot in questione non hanno agito di propria iniziativa, ma seguendo algoritmi ed istruzioni precise e ben programmate. E così la prima legge che afferma che “Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno” e la seconda, ossia che “Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge” sono state superate. Il primo caso ha portato il robot russo “Promobot” a “fuggire spontaneamente” dal laboratorio in cui stava apprendendo gli algoritmi per il movimento automatico, ed a esplorare l’ambiente circostante in modo autonomo finché non è rimasto immobile, a batterie ormai scariche, in mezzo ad una strada paralizzando il traffico cittadino. Se sia stata una furba mossa di marketing o una dimenticanza accidentale, questo non saprei dirlo. Il caso successivo, però, fa ancora più pensare, e si tratta del primo robot pensato espressamente per danneggiare o ferire qualcuno dal momento che il braccio mobile armato di ago è stato realizzato per pungere con forza chi, tentando la sorte, avesse appoggiato il dito sull’apposito bersaglio. Il robot nasce come esperimento all’interno dell’Università di Berkeley proprio per far ragionare la gente su come affrontare i pericoli che potrebbero rappresentare i robot, ancor prima che si realizzino. “La grande preoccupazione sulle intelligenze artificiali è che possano andare fuori controllo. - afferma Alexander Reben, l’ingegnere dell'università di Berkeley esperto di interazione uomo-robot - I giganti della tecnologia affermano che siamo ben lontani da questo, ma pensiamoci prima che sia troppo tardi. Io sto provando che robot pericolosi possono esistere, dobbiamo assolutamente confrontarci sul tema. Le persone più disparate, esperti di legge, filosofia, ingegneria ed etica devono mettersi insieme per risolvere queste questioni, nessuno può farlo da solo”.

Il dibattito è acceso e l’allarme è stato lanciato sia da Stephen Hawking che da Elon Musk, che si sono detti molto preoccupati sui rischi legati all’evoluzione dell’intelligenza artificiale. E così i due, insieme a 892 ricercatori di AI o robotica e 1445 altri esperti del settore tecnologico hanno approvato un testo chiamato “Asilomar AI Principles” (Principi Asilomar per AI) composto da 23 principi-guida che dovrebbero volgere ad uno sviluppo dell’AI in un modo produttivo, etico e sicuro. Un testo iniziale e non completo il cui obiettivo ultimo è quello di “creare un’intelligenza della quale beneficiare e non un’intelligenza senza uno scopo” senza trascurare questioni fondamentali come la sicurezza, il bene comune, la responsabilità, la privacy, il controllo umano, i rischi di un’ eventuale corsa alle armi AI. In ambito militare, infatti, diverse nazioni stanno già sviluppando sistemi di armamenti robotici in grado di scegliere in maniera autonoma un obiettivo prioritario tra i diversi possibili ed abbatterlo. Simili armi smart, richiedono ancora l’autorizzazione di un operatore umano per portare a segno l’attacco, ma i rischi letali legati a questi armamenti autonomi non possono non destare preoccupazione già da ora. Dell’argomento si parlerà in maniera più approfondita a giugno durante la Conference on Uncertainty in Artificial Intelligence (UAI) cercando di mettere al bando, attraverso una petizione firmata già da oltre mille esperti del settore, eventuali “robot killer” in grado di combattere ed uccidere senza essere guidati dall’uomo.

Non è un caso che nella risoluzione del Parlamento europeo con il quale si richiede alla Commissione europea di iniziare a sviluppare norme per disciplinare l’ambito della robotica, si parli anche di mitologia e letteratura: da Frankenstein, a Pigmalione, al Golem di Praga, “gli uomini da sempre hanno fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane” che siano funzionali agli scopi per cui sono state generate impedendo allo stesso modo che suddette macchine possano rivoltarsi contro i propri creatori. La risoluzione approvata il 13 febbraio dai deputati UE in materia di “Norme di diritto civile sulla robotica” insiste specialmente sulla creazione di uno status giuridico per i robot con la prospettiva di classificare gli automi come “persone elettroniche” responsabili delle proprie azioni. Una delle prime esperienze reali di AI, che probabilmente necessiterà a breve di regole scritte, potrebbe essere quella delle auto a guida autonoma. Sarà forse questo il campo di prova per capire effettivamente come affrontare la questione etica delle macchine pensanti: un’auto senza conducente sceglierebbe di colpire dei pedoni o deviare ed andare a sbattere danneggiando i propri passeggeri? Limitare i danni sembra la risposta più ovvia, ma a quale costo e, soprattutto, a chi andrebbe poi la colpa dell’accaduto, alla macchina o al programmatore? La questione è totalmente aperta. Le macchine, forse, arriveranno a possedere una propria etica leggendo e riordinando il mondo in modo tale che non dipenderanno più da come sono state originariamente programmate, saranno in questo caso però “libere” di evolversi autonomamente? Alla base, penso che le macchine dovrebbero essere istruite in maniera tale da non arrivare mai da sole a sciogliere questioni delicate e pericolose, il cosiddetto coding etico. “Serve un’etica dell’algoritmo e quell’etica va costruita attraverso un confronto esterno al mondo dei laboratori perché deve mettere appunto in chiaro delle soglie limite sull’utilizzo delle macchine. Dovranno essere soglie universali, che si applichino oltre la singola invenzione o scoperta”, l’affermazione è di Giovanni Boccia Artieri, sociologo e docente di internet studies all’università di Urbino. Le tre leggi della robotica stanno per essere messa a dura prova, oggi dalle auto senza conducenti, domani da un’intelligenza artificiale sempre più pervasiva. E anche per questo, dobbiamo saper agire e dare regole precise già da ora per il mondo che verrà: non cancellare le tre leggi ma implementarle con tutte le possibili implicazioni future.

Gianluca Cimini

Gianluca Cimini - Tra etica e rischi vari, è forse tempo di riscrivere le leggi delle robotica