ISACA Journal
Volume 5, 2,014 

Translated Articles 

Etica delle Macchine 

Vasant Raval, DBA, CISA, ACMA 

Nella sua essenza, un computer esegue istruzioni, cioè il codice che abbiamo inserito. Pertanto, si può sostenere che i computer non abbiano una propria libertà di scelta al di là di quella che l'uomo ha previsto per il sistema. Infatti, le azioni intenzionali di qualsiasi codice sono essenzialmente limitate all'ambito scelto da chi lo scrive. In questo senso, i computer possono essere descritti come meri strumenti, o fattori abilitanti, di ciò che l'utilizzatore vuole fare. L'intera responsabilità circa l'eticità del comportamento del sistema dipende quindi dai suoi creatori.

Questo non esclude che l'uomo possa usare questi fattori abilitanti in maniera immorale. Durante gli anni '70, il top management di Equity Funding, un'impresa di assicurazioni sulla vita degli Stati Uniti d’America, decise di creare false evidenze di polizze assicurative, riassicurandole ed ottenendo denaro dai riassicuratori dichiarando falsi decessi degli assicurati. Essi nascosero questi dati ai loro revisori in quello che veniva definito "File 99". Manipolare il codice o i dati per commettere un crimine o un atto immorale è possibile anche quando i computer non sono nient'altro che strumenti e l’autore proviene dal gruppo degli utilizzatori o di chi ha scritto il codice.

Ma è arrivata un’era di advanced computing, che continua ad espandersi, nella quale i computer stanno rivestendo ruoli sempre più sofisticati. La robotica e le nanotecnologie sono solo due esempi delle discipline in evoluzione che spingeranno il ruolo dei computer e l’elaborazione ben al di là dell'era dei fattori abilitanti. Secondo Ray Kurzweil, entro il 2045, "l'intelligenza umana verrà migliorata di miliardi di volte grazie ad estensioni al cervello altamente tecnologiche."1 Egli definisce questo fenomeno come "singolarità", un punto nel quale l’uomo e il computer si fonderanno. Questa sorta di "uno in due" creerà sfide molto serie nell'allocazione della responsabilità morale tra i due.

Sta emergendo una disciplina interamente nuova, chiamata macchine morali o etica delle macchine, per andare in profondità nei dilemmi etici del nuovo mondo delle tecnologie avanzate e delle loro applicazioni. In un’ampia accezione, l'etica delle macchine è una disciplina che cerca di affrontare l'etica dell'intelligenza artificiale (AI, Artificial Intelligence). Mentre l'AI è in lenta transizione dalle fiction e dai film (es. Transformers) al mondo reale nel corso degli ultimi decenni, i tentativi di articolare le sue dimensioni morali sono relativamente recenti. "Macchine Morali: insegnare ai robot ciò che è giusto e ciò che è sbagliato"2 e "L'Etica delle Macchine"3 sono due importanti pubblicazioni che propongono una discussione sulla morale nel contesto delle macchine intelligenti. Questo salto dall'etica dei computer all'etica delle macchine è necessario a causa dello status evoluto dei computer, passati da semplici fattori abilitanti a collaboratori intelligenti.

James Moor considera gli elaboratori dei semplici esecutori di attività come agenti normativi, ma non necessariamente agenti etici, perché essi eseguono attività come specificato e la loro performance può essere valutata oggettivamente. Qualsiasi evoluzione delle macchine al di là di questo stadio richiede la considerazione della dimensione etica che l'intelligenza “embedded” dovrebbe riflettere nel suo disegno. Per questo, Moor suggerisce tre metodi per classificare i temi dei valori morali nelle macchine: agenti ad impatto etico, agenti etici impliciti ed agenti etici espliciti4. Ciascuna categoria assegna progressivamente un ruolo morale più grande alle macchine. Qui, discuteremo dell'etica delle macchine utilizzando la classificazione di Moor.

Agenti ad impatto etico

Oltre ad eseguire istruzioni, la macchine qualche volta influenzano sottilmente la dimensione morale della situazione, operando così come un agente che genera un impatto etico. Per esempio, ora che l’uso dei cellulari è pervasivo, siamo preoccupati se rispondere ad una chiamata mentre guidiamo. Ci sono sufficienti evidenze che l'uso dei cellulari mentre si guida implica una più alta probabilità di far del male a sè stessi e agli altri per strada. Nei luoghi dove la legge non lo prescrive, c'è bisogno di determinare secondo coscienza se rispondere o lasciare che il sistema gestisca la risposta mentre siamo alla guida di un veicolo (o di qualsiasi altro aggeggio semovente che si sta attivamente controllando, eccetto le macchine “senza conducente”). Certo, quest'ultima affermazione attenua il rischio mentre la precedente potrebbe attualizzarlo. Il dilemma è causato interamente dall'innovazione tecnologica sotto forma di telecomunicazioni cellulari e wireless. I miglioramenti nelle comunicazioni - “sempre” e “ovunque” - causano un effetto collaterale come nuovo dilemma etico. Pertanto, il mobile computing può essere visto come un agente con un impatto etico; fa ciò che è programmato per fare, ma ha anche un impatto sulle dimensioni morali del comportamento umano.

Jim Lewis descrive uno scenario interessante di impatto etico.5 Ha a che fare con i robot che guidano i cammelli, alti circa due piedi, che con la mano destra impugnano la frusta e con la sinistra stringono le redini. L'hardware è inscatolato in alluminio e plastica (35 libbre) e il software consta di un processore Linux a 400 MHz che comunica a 2.4 GHz; dotato di GPS, monitora il battito del cuore del cammello. Tali fantini sono stati utilizzati nel deserto nella corsa per cammelli appena fuori Doha, Qatar. Prima che i robot sostituissero i fantini umani, gli abitanti di Doha utilizzavano ragazzi Sudanesi semi schiavizzati e tenuti senza cibo per mantenerli snelli. Per ogni fantino-robot che frusta la sua improbabile cavalcatura c'è un ragazzo sudanese liberato dalla schiavitù. I robot costruiti in Svizzera hanno avuto un impatto etico al di fuori della semplice corsa di cammelli.

Nel caso della telefonia mobile è interessante notare come l'impatto etico risieda al di fuori del design dei cellulari; in tal modo, si potrebbe notare che al telefono in se stesso non è stata delegata nessuna responsabilità morale. Non di meno, la tecnologia cellulare ha il potenziale di trasformare i cellulari in agenti ad impatto etico - essi possono essere programmati per prendere decisioni basate sullo stato del possessore, sia che stia guidando o meno mentre riceve una chiamata. Questo potrebbe non diventare popolare tra gli utilizzatori e i venditori. Così, è chiaro che le tecnologie in evoluzione offrono nuovi metodi per affrontare dilemmi etici mano a mano che migliorano i modi di soddisfare i bisogni e le volontà umane. Per esempio, la presenza globale di Internet, neutrale in teoria fin dalla sua progettazione, ha creato un nuovo dibattito sulla privacy e sulla parità d’accesso. Nel 2012, Facebook ha condotto un esperimento psicologico su 689.003 utenti al fine di misurare la loro condizione emotiva. Lo scopo era quello di determinare se Facebook avrebbe potuto alterare la condizione emotiva dei suoi utenti e spingerli a pubblicare contenuti più positivi o più negativi.6 Non abbiamo mai investito così tanto tempo in questi temi nell'era pre-Internet.

Ma ritorniamo per un momento ai computer che eseguono azioni normative; non c’è niente di inerente nel loro design che dovrebbe toccare la nostra coscienza. Guardando al futuro, essendo ormai circondati da macchine intelligenti, le risposte ai nostri dilemmi morali prendono nuove forme e spesso diventano anche più complessi. Nel passato, non avremmo mai pensato di affrontare questioni etiche solo per rispondere al telefono, ma ora, con la tecnologia wireless, dobbiamo farlo.

Agenti etici impliciti

Gli agenti ad impatto etico creano contesti etici che l'uomo affronta e risolve per la prima volta o in maniera diversa. Poiché i programmi di AI sono sofisticati a livello di intelligenza, perché non diamo loro da risolvere anche i dilemmi etici che essi pongono? Perciò, noi regoliamo la situazione da una ad impatto etico ad una nella quale la decisione etica viene presa dal computer, sebbene da un insieme di scelte che i programmatori hanno incorporato nel software. Invece di scegliere di risolvere le domande etiche che emergono dagli agenti ad impatto etico, un'opzione è quella di precostituire nei prodotti e servizi di AI delle risposte ottimali alle questioni morali. Se le scelte morali sono programmate con una giusta riflessione su ciò che sia appropriato fare in determinate circostanze, ci si dovrebbe aspettare che il comportamento previsto si presenti in modo consistente. A differenza dell'uomo, le macchine non sono in grado di interrompere la loro risolutezza a comportarsi eticamente.

Agenti etici espliciti

Lo stadio successivo prende atto che l'agente non solo è in grado di eseguire decisioni morali, ma anche di prendere decisioni etiche basate su un repertorio di regole decisionali. In tal modo, non c'è bisogno di assegnare la cosa giusta da fare, ma piuttosto come determinare cosa è la cosa giusta da fare in un contesto specifico. Prendiamo, per esempio, i droni (veicoli per il combattimento aereo senza pilota) utilizzati per combattere. Si vorrebbe che il drone mitigasse il rischio distruggendo la minaccia, e allo stesso tempo preavvisasse i civili innocenti presenti nelle vicinanze, le cui vite dovrebbero essere risparmiate.7 Se un drone è in grado di effettuare un tale giudizio basato su uno scenario specifico che si sviluppa sul luogo, si dovrebbe considerare un agente etico esplicito. Gli agenti etici espliciti sono uguali, o quasi, all'uomo. Alcuni addirittura ritengono che essi potrebbero essere molto più affidabili e consistenti nel loro comportamento morale.

Anche se queste sembrano essere idee abbastanza premature, la verità è questa: le applicazioni AI sono qui per rimanere. Le più recenti applicazioni di AI sono più sofisticate ed alcune addirittura dotate di auto apprendimento. La complessità del nuovo mondo guidato dalla tecnologia è sconcertante, anche se i precetti etici del passato si possono ancora applicare. La sfida dei tempi moderni risiede nella comprensione affidabile dei nuovi contesti alla luce dell'eternità dell'etica. Quando non siamo in grado di ottenere un contesto comparabile dal passato, l'applicazione dei precetti etici diventa confusa, come quando i legislatori provano ad abbozzare una legge per qualcosa come la neutralità della rete, che è (materia) nuova e difficilmente comparabile ad una legge esistente. L'accesso universalmente aperto ad Internet indipendentemente dai media, dai dispositivi, dalle piattaforme o dalla natura dell’utilizzo è difficile da estrapolare dalla storia. Indipendentemente da come il dibattito sulla neutralità della rete venga risolto, esso creerà più temi etici da affrontare mano a mano che andremo avanti. E siccome il divario fra uomo e macchine si sta colmando nel corso del tempo, noi dovremo seriamente prendere in considerazione nuovi modi di implementare l’etica.

Note

1 Wolfe, Alexandra: “Ray Kurzweil Looks Into the Future”, The Weekend Confidential, The Wall Street Journal, 30 Maggio 2014
2 Wallach, Wendell; Colin Allen; “Moral Machine: Teaching Robots Right From Wrong”, Oxford University Press, UK, 2008
3 Anderson, Michael; Susan Leigh Anderson (Eds.): “Machine Ethics”, Cambridge University Press, UK, 2011
4 Ibid. p- 13-20
5 Lewis, Jim: “Robots of Arabia”, Wired Magazine, Novembre 2005
6 Albergotti, Reed: “Furor Erupts Over Facebook Study”, The Wall Street Journal, 30 Giugno 2014
7 Per una discussione dettagliata sull’etica dei droni, far riferimento a “Drone-Ethics Briefing: What a Leading Robot Expert Told the CIA”, Patrick Lin, in “Morality and Moral Controversies”, nona edizione, (EDS: S. Scalet and J. Arthur), USA, Pearson Education, 2014, p. 170-176

Vasant Raval, DBA, CISA, ACMA, è professore di Ragioneria/Contabilità nell'Università di Creighton (Omaha, Nebraska, USA). Co-autore di due libri sui sistemi informativi e la sicurezza, le sue aree di insegnamento e gli interessi di ricerca comprendono la sicurezza informativa e la governance dell’impresa. Le opinioni espresse in questo articolo sono esclusivamente sue e non dell'Università di Creighton. Può essere contattato all’indirizzo vraval@creighton.edu.


Quality Statement:
This Work is translated into Italian from the English language version of The Article List (please see Exhibit E) publishes in the ISACA Journal by Massimo Zilio with the permission of the ISACA. Massimo Zilio assumes sole responsibility for the accuracy and faithfulness of the translation.

Dichiarazione di Qualità.
Quest'opera è stata tradotta in Italiano dalla versione in lingua Inglese, pubblicata in ISACA Journal, da Massimo Zilio con il permesso di ISACA. Massimo Zilio si assume la piena responsabilità della precisione e della fedeltà della traduzione.

Gruppo di Approfondimento di ISACA VENICE Chapter per la traduzione in lingua italiana.
Coordinamento: Orillo Narduzzo
Traduzione: Massimo Zilio
Controllo Qualità: Paolo di Battista, Orillo Narduzzo, Andrea Pederiva, Ferdinando Soldan, Roberto Taiariol.

Copyright
© 2014 of Information Systems Audit and Control Association (“ISACA”). Tutti i diritti riservati. Nessuna parte di questa pubblicazione può essere utilizzata, copiata, riprodotta, modificata, distribuita, mostrata, registrata in un sistema o trasmessa in nessuna forma e nessun mezzo (elettronico, meccanico, fotocopia, registrazione o altro) senza la preventiva autorizzazione scritta di ISACA.

Limitazione di responsabilità.
ISACA Journal è pubblicato da ISACA. In quanto membri dell'Associazione, una organizzazione di volontari al servizio dei professionisti nella governance IT, gli appartenenti alla stessa ricevono un abbonamento annuale ad ISACA Journal. Le opinioni espresse in ISACA Journal rappresentano il punto di vista degli autori e degli inserzionisti. Queste possono essere diverse dalle dichiarazioni ufficiali e dalle Policies di ISACA e/o dell'Istituto di Governance IT (ITGI) e dei loro comitati, e dalle opinioni approvate dai datori di lavoro degli autori, o dagli editori di questa Rivista. ISACA Journal non attesta l'originalità del contenuto degli autori. A chi fa formazione viene permesso di fotocopiare gratuitamente singoli articoli per un utilizzo d'aula non commerciale. Per altre copie, riproduzioni o ripubblicazioni, il permesso deve essere ottenuto per iscritto dall'associazione. Laddove necessario, il permesso è concesso dai titolari del copyright per chi è registrato sotto il Copyright Clearance Center (CCC), 27 Congress St., Salem, MA 01970, per fotocopiare articoli di proprietà di ISACA ad una tariffa flat di US $2,50 ad articolo, oltre a 25¢ per pagina. Inviare il pagamento al CCC dichiarando il codice ISSN (1526-7407), la data, il numero, ed il primo ed ultimo numero di pagina di ciascun articolo. E' esplicitamente proibita la riproduzione per altri usi che non siano personali o per referenze interne, o di articoli o di rubriche non di proprietà dell'associazione senza l'esplicito permesso dell'associazione o del titolare del copyright.

 

Add Comments

Recent Comments

Opinions expressed in the ISACA Journal represent the views of the authors and advertisers. They may differ from policies and official statements of ISACA and from opinions endorsed by authors’ employers or the editors of the Journal. The ISACA Journal does not attest to the originality of authors’ content.