Machine Learning Explanations: LIME

Course Access: Lifetime
Course Overview

Capire come è stata ottenuta una determinata previsione, perché l’algoritmo ci suggerisce una certa decisione? Queste sono le domande essenziali che hanno dato vita al campo delle spiegazioni degli algoritmi di Artificial Intelligence. Avere una buona comprensione della logica dell’algoritmo utilizzato è essenziale in diversi contesti, sia per ragioni legali che etiche. In questo corso tratteremo una delle tecniche di spiegazione più utilizzate: LIME. Questo metodo permette di ottenere una spiegazione della logica con cui ogni singolo individuo del dataset è stato previsto. LIME funziona su qualsiasi modello di previsione. All’inizio del corso parleremo dell’interpretazione geometrica che risulta valida per ogni tipo di modello di Machine Learning. Questa nozione sarà utile per capire LIME da un punto di vista geometrico, e per comprendere come la tecnica di spiegazione può valere per tutti i tipi di modelli. Entreremo poi nel dettaglio del metodo, analizzando la tecnica applicata ai dati tabulari e illustrando nel dettaglio i vari steps del metodo. Ci soffermeremo anche sui punti deboli, mostrando casi in cui le spiegazioni non sono affidabili. Dopo avere analizzato a fondo il metodo di base, passeremo ad analizzare frameworks che migliorano le spiegazioni di LIME, in particolare il più promettente di questi è OptiLIME, che garantisce di ottenere spiegazioni più stabili e più affidabili. Infine verrà mostrato come applicare il metodo anche a dati relativi a testo e immagini. Di tutte le tecniche descriveremo prima il funzionamento a livello teorico, per poi testarle su dati e modelli reali tramite notebook in python. L’unico prerequisito richiesto è una conoscenza base di python, mentre potrebbe essere utile (anche se non indispensabile) una conoscenza sommaria dei concetti base dei modelli di Machine/Deep Learning.

Submit your response