Etica e responsabilità

I big player che gestiscono le infrastrutture della Rete hanno più di una questione “spinosa” da risolvere.

Qualche anno fa l’algoritmo di Amazon si è messo a “suggerire” agli acquirenti certi prodotti da acquistare in un unico blocco, insieme ad altri. 

Lo fa sempre, direte voi. In fondo alla pagina di ogni ordine c’è sempre una lista di “potrebbe interessarti anche…”, oppure di “altri utenti hanno acquistato anche…”. In un caso specifico, l’unione dei suggerimenti portava a mettere insieme i materiali necessari alla costruzione di … una bomba.

Ecco allora introdotti i concetti di responsabilità, morale ed etica. L’etica degli algoritmi destinati a diffondersi sempre di più intorno a noi, e a gestire per noi un’infinità di calcoli, di scelte e di funzioni, è differente da quella degli esseri umani? Possiamo parlare di un’etica propria dell’algoritmo, di una morale specifica per l’Intelligenza Artificiale?
Esistono algoritmi “etici” e algoritmi “criminali”? Un dispositivo, per quanto evoluto, può forse agire secondo filosofie di “vita” proprie? 

Secondo teorie, sistemi, prospettive e convenienze che sono diverse, o addirittura opposte e contrarie, a quelle dello stesso essere umano che lo ha ideato e creato?

E l’essere umano può, con l’alibi della macchina, farle compiere azioni che egli stesso – in quanto essere umano – non compirebbe mai? Può un sistema digitale essere accusato di qualcosa, macchiarsi di una colpa, avere una qualsivoglia responsabilità?

Se un dispositivo x ha degli errori di progettazione, esce difettoso dalla fabbrica, lavorerà in modo errato. Farà cose che non doveva fare. Ma è un errore “suo”, o di chi lo ha costruito e/o progettato? Sarà allora una colpa o un errore? Per me, e scusate se sembro troppo tranchant, la questione è semplicissima: ogni responsabilità è esclusivamente affar nostro. Di noi esseri umani.

È impossibile, allo stato dell’arte, anche solo pensare seriamente che un robot disponga della facoltà autonoma e indipendente di percepire il mondo come lo percepiamo noi, ed elaborarne il significato secondo le leggi della vita naturale.

Non dobbiamo farci trarre in inganno dalle somiglianze esteriori: androidi con i quali possiamo conversare, droni che somigliano a insetti o a cani. Prendiamo questi ultimi.
Esistono dei robot dotati di quattro zampe. L’aspetto finale del prototipo è quello di un animale. Molto impressionante.Alcuni li abbiamo visti anche ballare al ritmo di canzoni popolari durante le dimostrazioni. Esibirsi in comportamenti umanoidi o pseudo-umani.

Leonardo da Vinci studiava le ali degli uccelli, pensando a come costruire una macchina per volare ma non abbiamo mai pensato di incolpare il Concorde perché si è incendiato, o un qualsiasi aereo di linea per essere precipitato; non ci è mai venuto in mente, credo, nemmeno di sospettare che un aereo potesse avere una mente, una personalità, una pur minima coscienza paragonabile a quella del suo modello alato animale, o del suo progettista. Certamente, la tecnologia che sta sotto a un dispositivo che si basa su un algoritmo è molto più complessa di quella che sta dietro all’ideazione delle prime macchine volanti, e le implicazioni che il deep-learning porta con sé non sono paragonabili con nessun’altra innovazione prodotta dall’uomo sino ad oggi.

La scienza degli algoritmi, e la loro applicazione di massa, hanno senz’altro ancora del lavoro da svolgere. Siamo agli albori di un mondo e, per quanto meravigliose e sconcertanti ci appaiano le tecnologie delle quali disponiamo oggi, esse non sono altro che i prototipi ancora imperfetti di ciò che verrà in futuro.

Come nell’esempio limite riportato poco sopra, è innegabile che l’algoritmo, per sua stessa natura, “sia portato” a orientare certe scelte, mettiamo, del consumatore online. La sua funzione è anche quella di facilitarci i compiti, e quindi di aiutarci a scegliere quel che è meglio per noi, a seconda degli input che noi stessi diamo al sistema. Li abbiamo fatti, quasi, apposta.

L’algoritmo è, fondamentalmente, un processore molto sofisticato di dati. Bisogna allora vedere chi sono coloro che accumulano i dati che inseriamo quotidianamente nella rete, e che uso decidono di farne. La questione morale del problema è tutta qui: nella scelta e nel comportamento umano. 

Nel rispetto dell’altro, della sua privacy e della sua libertà. È stato dimostrato come anche nel caso in cui i dati vengano forniti in forma anonima, una persona dotata dei giusti strumenti e delle giuste capacità informatiche sia in grado di risalire alla fonte, alla persona che si “nasconde” dietro a un certo flusso.  È quello che ha fatto uno studente del MIT analizzando dati medici riservati, riuscendo in breve tempo a risalire al possessore degli stessi: il governatore dello stato del Massachusetts. 

Oltre a questo, l’algoritmo che processa i nostri dati, incrociandoli secondo una quantità di relazioni impossibili da calcolare per una “semplice” mente umana, sembra essere in grado di “scoprire” e sapere di noi cose che noi stessi non sappiamo di sapere, né immaginiamo di volere, pensare, desiderare.

È un po’ come l’inconscio freudiano che, secondo la teoria psicoanalitica, conserva un numero impressionante di informazioni e ricordi personali; una quantità talmente elevata che la parte cosciente della persona non avrà mai la capacità di elaborare e riconoscere. Una parte sepolta della nostra personalità che, però, sotto sotto, agisce e orienta le nostre azioni e le nostre scelte, appunto, a livello inconscio. La differenza tra l’inconscio psicoanalitico e l’algoritmo intelligente sta nel fatto che, mentre i dati inaccessibili accumulati nelle profondità del nostro cervello rimangono dentro di noi e sono irraggiungibili dall’esterno, quelli accumulati e gestiti dall’algoritmo sono accessibili a terzi, grandi compagnie, colossi del web, società e, in certi casi, governi e partiti politici.

Questo è l’aspetto negativo dell’essere uniti in un unico corpo digitale col resto dell’umanità: l’impossibilità di controllare la destinazione e l’uso delle informazioni private che rappresentano la quasi totalità del nostro agire digitale.

C’è poi il problema della libertà di scelta durante la navigazione: l’algoritmo che fa funzionare Google, Amazon ecc. porge all’utente dei suggerimenti in base alle ricerche già effettuate, in base agli ordini di acquisto passati. Raggruppa in liste di possibile affinità oggetti comprati insieme da altri utenti e poi ce le propone quando acquistiamo uno degli oggetti di quell’insieme. In questo modo si rischia di stringere il collo della bottiglia, e limitare la scelta tra poche cose che, anche in virtù di una maggiore evidenza pubblicitaria, vengono acquistate più di altre, e che sempre più lo saranno per via di questo procedimento. 

È vero che un suggerimento di tal genere ci potrebbe far imbattere in un prodotto, in un libro, per esempio, del quale altrimenti, magari, non avremmo mai nemmeno ipotizzato l’esistenza, e questo oggetto potrebbe anche perfettamente corrispondere ai nostri desideri… ma quante altre strade ci chiude?

Quando navighiamo in Internet, l’algoritmo, per certi versi, somiglia a una bussola molto complessa che ci permette di orientarci e perseguire la nostra scelta e la nostra strada… ma siamo liberi di disattivare il pilota automatico e procedere alla ventura, a caso, speranzosi di imbatterci in qualcosa che nessuno prima ha mai visto, comprato, letto, cliccato? 

Disponiamo ancora di questa libertà assoluta di dirigere a nostro talento il passo?
Ancora un altro problema di eticità riguarda ciò che vogliamo far dire all’algoritmo, ovvero il risultato che vogliamo ottenere.

Dipende dal tipo di dati che inseriamo nel sistema. Se una ditta truffaldina, per esempio, si mette in testa di propagandare una miscela scoperta per la cura del diabete, basterà che inserisca certi dati che vanno apparentemente in quella direzione, e allora il risultato sarà senz’altro confacente all’obiettivo già dato, ovvero al pregiudizio di partenza.

Nella ricerca scientifica, paradossalmente, potrebbe essere utile un algoritmo che lavori sui dati escludendo la visione della persona, della personalità dello scienziato, per evitare che il risultato sia fazioso, “contaminato” da una qualsiasi aspettativa, o interesse particolare, che indirizzerebbe il sistema verso un falso positivo o falso negativo. 

La scelta di escludere l’essere umano dal processo della macchina è essa stessa una scelta programmata, voluta, e ritenuta valida per quel contesto particolare dallo stesso essere umano, e non dalla macchina. Oppure, nel caso di una truffa, dalla legge. 

Il problema della presenza diffusa degli algoritmi nei sistemi di comunicazione e interconnessione, e del loro utilizzo, nonostante il mio ottimismo in materia, esiste.

Luca Tomassini 20 aprile 2023
Condividi articolo
Archivio
Oltre l'abisso binario
Viaggio emotivo verso una nuova etica dell'intelligenza artificiale