Machine Learning e trasparenza

Con la recente pubblicazione del White Paper, la Commissione Europea ha ribadito come l’importanza dell’evoluzione tecnologica sia tanto essenziale quanto la previsione di adeguate garanzie per la tutela dei diritti fondamentali, oggi fortemente compromessi dal crescente impiego di queste tecnologie.

Nel panorama di riferimento, un’attenzione particolare deve essere rivolta al problema dell’automazione e alle conseguenze pregiudizievoli e discriminatorie che il suo utilizzo può comportare, e la cui tutela deriverebbe, in primo luogo, da una corretta ed esaustiva applicazione del principio di trasparenza.

Il principio di trasparenza, inteso come la possibilità di comprendere e/o interpretare i processi decisionali operati dai sistemi automatizzati, riveste un ruolo fondamentale: è infatti lo strumento che consente di avere una visione completa delle modalità con le quali un sistema opera, nel difficile tentativo di contrastare, in questo modo, il tipico effetto dell’opacità algoritmica.

Nei sistemi di intelligenza artificiale ci possono essere più livelli di trasparenza.

Un primo e profondo livello concerne l’implementazione stessa del sistema, la cui conoscenza riguarderebbe la logica e le tecniche specifiche che tale sistema utilizza per generare la relazione tra l’input e l’output, e i parametri a questo associati.

Un secondo livello riguarderebbe invece le specifiche informazioni sulla creazione del modello: ad esempio, l’indicazione del training set, l’indicazione della training procedure, i costi della funzione, nonché la finale valutazione della performance.

Infine, ad un livello più accessibile si pone la mera interpretabilità del sistema, che prescinde da una spiegazione tecnico-scientifica ma risponde comunque all’esigenza di dimostrare come l’algoritmo segua le specifiche istruzioni che gli sono state fornite, e come si allinei ai valori fondamentali protetti dall’ordinamento.

Una tale declinazione a diversi gradi di specificità del concetto di trasparenza è indispensabile per garantire che questa assolva al suo scopo: infatti, se il destinatario è un final user, è intuibile che la spiegazione non possa presupporre specifiche conoscenze tecnico-matematiche e pertanto debba essere fornita in modo conforme alle aspettative dell’utente.

Per quanto concerne gli elementi sui quali è opportuno che vengano fornite le spiegazioni, questi dovrebbero riguardare tutte le fasi del processo di Machine Learning: a partire dall’individuazione dei dati oggetto di elaborazione, a finire con la logica utilizzata dal modello nella creazione dei pattern.

L’interpretazione algoritmica può inoltre essere concepita ex ante, attraverso una specifica programmazione del modello in modo che sia facilmente comprensibile: tale ipotesi andrebbe a minare però l’accuratezza e la precisione del sistema, la cui eccessiva semplificazione si contrappone all’efficienza data dalla complessità di funzioni e dalla moltitudine di parametri utilizzati. Diversamente, sarebbe configurabile una valutazione ex post, attraverso l’estrazione di una spiegazione dal modello black-box con un’operazione di ingegneria inversa: in questo modo, si selezionano specifici modelli coinvolti in quella stessa elaborazione per rivelarne le proprietà e le modalità operative.

È importante comprendere che, nell’ottica di un’effettiva tutela degli individui rispetto alla crescente automazione, la stessa programmazione riveste un ruolo fondamentale: la trasparenza, applicata anche alla fase di implementazione dell’algoritmo, non è solo un requisito chiave per contrastarne l’opacità in termini di comprensione operativa, ma garantisce altresì una comprensione della robustezza del sistema, della sua sicurezza, affidabilità nonché della sua compliance con la legge.

Ad oggi, troppo spesso non è possibile conoscere la progettazione di un algoritmo, quali dati hanno contribuito a istruirlo e secondo quale logica funziona. Tale disinformazione trova particolare riscontro in alcune tecniche molto complesse come il deep learning il quale, attraverso una fitta rete di connessioni, ripropone artificiosamente una rete neurale e genera, in questo modo, una serie innumerevole di funzioni e modelli su molteplici strati, la cui individuazione e comprensione è del tutto impossibile all’essere umano.

Allo stato dell’arte è dunque difficile trovare sistemi che rispondano adeguatamente al requisito di trasparenza, o perché la fase dell’implementazione e delle specifiche tecniche non è soggetta a divulgazione pubblica (si pensi ai diritti di proprietà intellettuale), o perché il modello è troppo profondo e complicato per poter essere spiegato.
Tuttavia, lo sviluppo tecnologico deve necessariamente mirare a soluzioni che rendano possibile la comprensione degli algoritmi: solo così è infatti possibile valutare la bontà del risultato ottenuto e soprattutto, appurando con quali criteri è stata presa una decisione, è possibile coglierne le debolezze, le falle e le imprecisioni, per poterle correggere attraverso la garanzia di un tempestivo intervento umano.

In conclusione, una riflessione doverosa dovrebbe riguardare non tanto il problema del livello di autonomia e di “intelligenza” dell’algoritmo, quanto piuttosto la crescente delegazione di decisioni ai sistemi automatizzati, la quale non sempre tiene in giusta considerazione il grado di accettazione sociale rispetto agli effetti prodotti. In questo senso, l’accettazione deve inevitabilmente essere frutto non solo di un’adeguata conoscenza, ma soprattutto di un’adeguata consapevolezza, relativa all’utilizzo e alle modalità operative di questi sistemi.

Le domande che oggi si pongono riguardano, da un lato, le modalità con cui è possibile garantire e valutare l’accuratezza e la giustizia delle decisioni prese in modo automatizzato e, dall’altro, la possibilità – e necessità – di garantire un intervento umano al fine di prevenire, modificare o contrastare queste decisioni, ed evitare così che i loro effetti provochino danni, talvolta anche irrimediabili.

Ai numerosi interrogativi che oggi si pongono rispetto all’affidabilità e alla sicurezza di questi sistemi, la risposta non può evidentemente prescindere dalla necessità di garantire un adeguato livello di trasparenza: se è pur vero che l’algoritmo è moralmente neutro in quanto mero esecutore dei compiti per i quali è stato programmato, è altrettanto evidente che tale neutralità sia compensata dagli intenti del suo sviluppatore. Per questo motivo appare essenziale comprenderne il funzionamento e la logica sottostante, affinché l’evoluzione tecnologica possa evolversi ed affermarsi in un generale clima di fiducia.

Per approfondire il tema da un punto di vista giuridico, iscrivetevi al nostro corso di “Intelligenza Artificiale, Big Data e Diritto” erogato da Giovanni Ziccardi per Deep Learning Italia!

Share:

Contenuti
Torna in alto