L’era dell’intelligenza artificiale: quattro grandi problemi e il rischio sociale cui dobbiamo fare attenzione
La tecnologia dell’intelligenza artificiale e la forma dell’industria del futuro.
La rivoluzione del sapere iniziata negli anni 80 del XX sec. ruota intorno alla tecnologia genetica, la tecnologia di internet e la tecnologia dell’intelligenza artificiale. Il secolo corrente vede un grande sviluppo della tecnologia della rete, la quale non ha solo modificato il modello d’informazione, rendendola più usufruibile e velocemente trasmissibile, ma ha anche dato origine a nuovi modelli di business. Siamo tutti abituati alla letteratura online, ai video online, alla musica online, ai giochi online, e alle piattaforme dei social, si è dunque verificato un drastico cambiamento del modo in cui noi viviamo, produciamo e interagiamo.
Il 2016 è considerato il primo anno dell’era del grande sviluppo della tecnologia dell’intelligenza artificiale, in quest’anno sono accaduti due grandi eventi: 1. il sessantesimo anniversario dalla definizione del concetto di “intelligenza artificiale” proposta da John McCarthy, Marvin Minsky, e Claude Shannon; 2. Alpha Go ha sconfitto uno dei più grandi campioni del gioco del Go. L’intelligenza artificiale comprende quattro tecnologie: l’apprendimento automatico (machine learning), l’elaborazione del linguaggio naturale, il riconoscimento di pattern, l’interazione uomo-computer, e copre 13 sotto aree di ricerca. L’uso della saggezza umana ha dotato le macchine di un cervello intelligente, dei sensi della vista, udito e tatto, e, come un essere umano, queste possono memorizzare, riconoscere e scegliere, l’interazione uomo-macchina è migliore di quella uomo-uomo, più efficace e raffinata.
Dai robot intelligenti, dalle case intelligenti, fino ai veicoli senza conducente e alle aziende senza lavoratori, la tecnologia dell’intelligenza artificiale è largamente utilizzata in ogni aspetto della vita sociale e della produzione, modificando fino a sovvertire la nostra stessa conoscenza e avrà una grande influenza sulle forme dell’industria agricola, manifatturiera, legale, giornalistica, logistica, medica, sportiva ecc.
L’intelligenza artificiale costituisce la più grande scoperta della società umana, ma allo stesso tempo può costituire un potenziale rischio. Hawking ha detto che l’intelligenza artificiale non è solo la più grande scoperta della storia, ma molto probabilmente sarà anche l’ultima scoperta. In qualità di operatori del diritto, noi non solo dobbiamo rallegrarci per queste nuove tecnologie ed abbracciare la nuova era, ma dobbiamo ancor più sviluppare un pensiero accurato a fronte di questi problemi fondamentali.
Il rischio sociale dell’era dell’intelligenza artificiale.
Nell’era dell’intelligenza artificiale, la legge come protegge la vita, la salute, la dignità, la riservatezza, la libertà e la sicurezza delle persone? Questi problemi meritano attenzione. L’era dell’high-tech è anche un’era di alti rischi, il potenziale rischio della società del futuro ha tre caratteristiche:
- La simbiosi del rischio. Il rischio dell’era dell’intelligenza artificiale è un tipo di rischio interno, è diverso dai disastri naturali come tsunami, terremoti, eruzioni vulcaniche, alluvioni ecc., questo tipo di rischio si trova proprio nella società umana. Esso può essere il rischio prodotto dalla tecnologia che il genere umano ricerca e sviluppa, oppure può essere il rischio prodotto dal sistema relativo a questa tecnologia, entrambi questi tipi di rischio sono in simbiosi con la società umana. Al nostro fianco hanno già fatto la loro comparsa robot industriali, robot aspirapolvere, chat robot, robot da compagnia ecc.; gli esperti ci hanno anche mostrato un “robot killer”, questo tipo di robot è equipaggiato con lenti ad ampio angolo, sensori ad alta sensibilità, ha una grande capacità esplosiva, può determinare il proprio obiettivo e uccidere. In questo caso non solo non dobbiamo rilasciare i brevetti, ma dobbiamo anche essere risoluti nel divieto di sviluppo di tali robot.
- Il carattere storico del rischio. Il rischio dell’era dell’intelligenza artificiale non solo è un rischio reale esistente, ma è anche un potenziale rischio futuro, esso permea l’intera storia della rivoluzione del sapere. Lo storico israeliano Yuval, autore di «Da animali a dèi. Breve storia dell’umanità» e «La storia di domani» descrive tre distinte fasi dell’intelligenza artificiale: una debole intelligenza artificiale, una forte intelligenza artificiale, una super intelligenza artificiale. La fase della super intelligenza artificiale inizierà negli anni 40-60 del nostro secolo, l’intera società si dividerà in due classi, la maggior parte delle persone apparterrà alla “classe degli inutili”, ovvero quelle persone che non portano alcun contributo alla società, e la cui vita fa affidamento sui robot intelligenti. Solo una piccola minoranza delle persone apparterrà all’élite, in possesso di una grande capacità di calcolo, attraverso la combinazione della tecnologia genetica e della tecnologia dell’intelligenza artificiale, esse hanno determinato il genoma umano, prolungato la vita, e possono vivere in eterno. Certamente questa è una profezia da fantascienza, tuttavia noi dobbiamo rimanere in guardia contro il potenziale danno che queste divisioni possono arrecare al naturale sviluppo della società umana.
- Il carattere globale del rischio. La rivoluzione del sapere è diversa dalla precedente rivoluzione industriale, iniziata in Inghilterra e gradualmente diffusasi in America del nord e in Asia orientale attraverso un processo lento e costante. Nell’era odierna della reciproca connessione della rete, il rischio è globale, non ci sono confini geografici, e non ci sono neanche barriere socio-culturali. Quindi il mondo intero deve agire insieme per sviluppare la tecnologia dell’intelligenza artificiale e per vigilare sui suoi possibili effetti dannosi.
Quattro grandi problemi dell’era dell’intelligenza artificiale.
Il primo è un problema legale, il problema dei soggetti responsabili, il problema della protezione della privacy, il problema dell’assunzione della responsabilità.
In primo luogo il problema dei soggetti responsabili. I «Principi generali del diritto civile» (la futura parte generale del codice civile cinese N.d.T.) prevede due sistemi fondamentali: il sistema soggettivo: la persona; il sistema oggettivo: le cose. Per il diritto, i soggetti e gli oggetti sono contraddistinti da limiti invalicabili. Il problema cui noi oggi dobbiamo rispondere è: i robot umanoidi sono macchine o uomini? un robot non è una persona fisica, ma è stato creato e ideato da una persona fisica, può quindi diventare un soggetto di diritto? Esiste già una risposta a questa domanda. Nel 2016 la Commissione giuridica (JURI) del Parlamento europeo ha sottoposto alla Commissione europea una proposta legislativa chiedendo di attribuire ai robot intelligenti più sofisticati la qualifica soggettiva di persona elettronica, di procedere alla registrazione dell’identità, di creare un account per la proprietà, per i pagamenti, per le tasse, per la pensione, ovvero una posizione soggettiva uguale a quella delle persone fisiche. Quest’anno l’Arabia Saudita ha conferito la cittadinanza a Sofia, un robot umanoide prodotto dalla Hanson Robotics in America. Lei ha diritti politici, diritti sociali e diritti civili? E’ difficile rispondere a questi interrogativi con le attuali teorie. Tuttavia attribuire ai robot intelligenti una forma di qualifica di soggetti di diritto può diventare una realtà nel prossimo futuro.
In secondo luogo il problema della protezione della privacy. L’epoca futura sarà un’epoca composita: internet mobile, big data, macchine intelligenti, e la società umana entrerà in un’era di trasparenza e senza privacy. La vita, la salute, il patrimonio, l’identità, e tutte le altre tracce degli individui, ad eccezione per i pubblici funzionari che in ragione di leggi speciali hanno l’obbligo di dichiarare tali informazioni, tutti gli altri soggetti considerano queste informazioni come informazioni private, e soggette alla doverosa protezione della legge. Nella società tradizionale spetta al singolo decidere se diffondere o meno informazioni private, ma oggi e domani tutti i segreti della collettività e della società intera possono essere divulgati. Tutte le nostre azioni saranno visibili attraverso i big data. Il genere umano come potrà proteggere la propria riservatezza? Le grandi realtà della tecnologia come Google, Apple, Facebook, Alibaba, Tencent, Baidu, ecc. posseggono un grande numero di informazioni di utenti, queste informazioni devono o meno essere raccolte ed utilizzate in base alla legge? noi in qualità di fornitori di informazioni siamo o meno trascurabili? Questi sono tutti problemi che vanno approfonditi.
Infine il problema dell’assunzione della responsabilità. L’era dell’intelligenza artificiale conosce due tipi di violazioni meritevoli di attenzione: 1. il soggetto controlla illegalmente il sistema intelligente e produce un danno, 2. il sistema intelligente per un proprio difetto di produzione arreca un danno. Nel caso in cui un soggetto prende il controllo del robot, attraverso hackeraggio o la trasmissione di un virus o altro sistema illegale, e produce un danno alla società, non è difficile affermare che su tale soggetto ricade la responsabilità. Il problema è l’assunzione di responsabilità nel caso in cui la macchina intelligente produce direttamente il danno. In Giappone è già accaduto che robot nella catena di montaggio hanno spinto lavorati nella macchina a pressione causandone la morte. Nel nostro secolo in America ci sono stati 87 casi di robot che, durante operazioni chirurgiche, hanno causato lesioni gravi o mortali. In questi casi dobbiamo distinguere la causa del fatto lesivo, se si tratta di un “problema tecnico” del progettista del robot, di un “uso improprio” da parte dell’operatore, oppure se la macchina intelligente ha “senza autorizzazione” oltrepassato l’originario programma di controllo. Questi sono tutti nuovi problemi su cui riflettere circa le cause e l’assunzione della responsabilità.
Il secondo è un problema etico.
Il problema etico non è meno importante del problema giuridico. Il famoso scrittore di fantascienza Asimov ha proposto le Quattro leggi della robotica, di cui la più importante è la Legge Zero per cui un robot deve proteggere gli interessi dell’umanità intera contro ogni danno, le ulteriori tre leggi sono tutte stabilite su questo presupposto. Le leggi della robotica hanno un importante ruolo guida nella gestione dei problemi relativi all’intelligenza artificiale. I problemi etici riguardano i seguenti aspetti:
il bias dell’algoritmo e il problema della discriminazione delle macchine. La velocità di lavoro, l’accuratezza del lavoro e l’attitudine lavorativa delle macchine supera quella delle persone fisiche. Tuttavia anche le macchine possono commettere degli errori, come il bias dell’algoritmo e il problema della discriminazione. Ad esempio il robot lanciato da Google ha erroneamente etichettato come gorilla due persone di colore, il “chat bot” lanciato da Microsoft, in 24 ore dal suo rilascio, è diventata una “cattiva ragazza” antisemita, sessista, razzista. Questo è un problema etico. Come stabilire i parametri e gli standard etici minimi dei robot è un problema molto importante.
Il problema dell’effetto “narcotizzante” dell’ambiente virtuale. Nella futura era dell’intelligenza artificiale, noi saremo circondati da infiniti messaggi elettronici, l’interazione fra persone sarà probabilmente sostituita dall’interazione tra uomo e macchina. Il comportamento emulativo dell’intelligenza artificiale potrà in larga misura sostituire il comportamento autonomo dell’uomo. Questo fa emergere il problema dell’effetto “narcotizzante” dell’ambiente virtuale, dalla vita, alla routine quotidiana, ai viaggi al lavoro, tutti questi aspetti saranno gestiti grazie all’aiuto di robot. Il genere umano potrebbe o meno diventare sempre più dipendente dall’intelligenza artificiale e dall’ambiente virtuale da lei costruito? qual è il significato originario dell’esistenza e dello sviluppo del genere umano?
Il problema della crisi emotiva uomo-macchina. Noi quando parliamo di società intendiamo una società creata da una comunità di uomini, una società dove normalmente interagiscono persone, ma i robot del futuro potrebbero causare una crisi emotiva uomo-macchina. Oggi noi non solo abbiamo inventato robot industriali che sostituiscono il lavoro fisico, ma abbiano anche creato robot che sostituiscono il lavoro mentale, potremmo perfino inventare dei sex robot o robot da compagnia che sostituiranno i sentimenti umani. Questo senza dubbio costituirà una grande sfida per il normale sviluppo della società umana e per il piacere della vita.
Il terzo è un problema sociale, il problema della sostituzione della macchina all’uomo.
In futuro, il 60% delle professioni e il 30% del lavoro umano saranno svolti dall’intelligenza artificiale. In base alle statistiche dell’università di Oxford, lo sviluppo permetterà all’intelligenza artificiale di occupare circa dieci milioni di posti di lavoro sostituendosi a segretari, consulenti, traduttori, assistenti, avvocati, dottori, contabili, perfino commercianti e banchieri. Generalizzando, i posti di lavoro che saranno occupati dai robot hanno tutti le seguenti caratteristiche: sono tutti impieghi che possono essere descritti ed hanno regole ben precise e risposte standard. Tutti questi tipi di impiego possono essere svolti dai robot.
La sostituzione della macchina all’uomo comporta tanti altri problemi sociali. Dove andranno tutti quei colletti bianchi e colletti blu che non avranno più un impiego? saranno abbandonati nella classe degli inutili? Non potranno più ricevere un compenso per il loro lavoro, e il sostentamento della loro vita arriverà dal fondo di previdenza sociale. A tale proposito Bill Gates ha proposto il pagamento delle tasse per il robot. Altro problema: nella società ci sono numerosi robot, robot lavoratori e robot con i colletti bianchi, questi hanno diritti e interessi? se sì, com’è possibile proteggerli?
Inoltre, com’è possibile colmare la distanza tra i paesi pionieri dell’intelligenza artificiale e gli altri paesi? come risolvere questo sbilanciamento? Questi sono tutti problemi sui cui meditare nel futuro prossimo.
Il quarto è un problema di supervisione e controllo.
Il XVIII e XIX Congresso nazionale del Partito hanno proposto i concetti di “buone leggi e buona amministrazione” e “amministrazione comune plurale” per l’amministrazione della società. Com’è possibile controllare quanto svolto dall’intelligenza artificiale? Io credo che una “amministrazione comune plurale” sia molto importante, in particolar modo la supervisione da parte del governo, l’autonomia e l’autodisciplina delle industrie. Attualmente il problema della supervisione presenta due aspetti:
il primo è la mancanza delle regole. Ad esempio nel settore della guida delle auto senza conducente, le regole circa la supervisione da parte del governo ancora non ci sono. Le politiche di sviluppo, gli standard di sicurezza e gli accessori della guida senza conducente sono tutti aspetti che devono essere regolati dalla legge. In America, sia lo stato federale che gli stati federati hanno rilasciato una serie di documenti sulla questione. Sui temi più importanti dell’intelligenza artificiale, lo stato deve procedere con le ricerche necessarie e approvare, a tempo debito, le relative politiche e leggi.
Il secondo è l’impossibilità di controllare la tecnologia. Supervisionare l’intelligenza artificiale è più difficile rispetto al controllo della tecnologia. Robot che parlano un linguaggio scurrile, l’uso di un linguaggio volgare, discriminazioni di sesso e di razza, come si verifica questo processo? perché accade questo errore di calcolo? Bisogna conoscere interamente il processo operativo dell’intelligenza artificiale, di conseguenza la ricerca del controllo della tecnologia deve continuare.
Etica, politica e legge dell’era dell’intelligenza artificiale.
L’era dell’intelligenza artificiale deve fondarsi su un obiettivo multi-valore con al centro la sicurezza, deve costruire un sistema di controllo e delle regole sociali con l’etica come guida, deve ricorrere alla tecnologia e alla legge per guidare un meccanismo di controllo del rischio. Da un punto di vista, il controllo legislativo è uno strumento importante del meccanismo di gestione del rischio. Da un altro punto di vista il controllo tecnologico è una misura importante del meccanismo di gestione del rischio. La strada principale per eludere il rischio è prevenire piuttosto che curare, quindi bisogna iniziare con una regolamentazione della ricerca tecnologica, e prevenire gli effetti negativi o collaterali prodotti dalla tecnologia. Il modello principale di elusione del rischio è un sistema della responsabilità che parte dal momento della ricerca e sviluppo della tecnologia e arriva al processo applicativo, e che comprende la responsabilità morale e sociale, la responsabilità etico scientifica, la responsabilità giuridica. La misura principale di elusione del rischio è il perseguimento del principio della democrazia tecnologica, che comprende l’apertura moderata al pubblico di informazioni tecnologiche, la partecipazione pubblica, e un processo decisionale pubblico.
Conclusioni
L’era dell’intelligenza artificiale è già arrivata, noi non solo abbiamo bisogno di una forma di saggezza tecnologica, ma contemporaneamente abbiamo anche bisogno di una razionalità sistemica.
(Il presente testo è una rielaborazione della relazione del prof. Wu Handong della Zhongnan University of Economics and Law in occasione del “2017 Summit su Intelligenza Artificiale e Futuro del Diritto” svoltosi il 17 dicembre 2017 a Shenzhen)
La citazione di questo contributo è: Cardillo I. (a c. di), L’intelligenza artificiale ed il futuro del diritto, in Istituto di Diritto Cinese, 30 dicembre 2017, disponibile all’indirizzo https://dirittocinese.com/2017/12/30/lintelligenza-artificiale-ed-il-futuro-del-diritto/
0 commenti