Autoencoder vs PCA: quando utilizzarli ?

Necessità di ridurre la dimensionalità

Articolo originale in lingua inglese di Urwa Muaz

immagine dell’autore

Nei progetti di apprendimento automatico spesso ci imbattiamo in maledizione problema dimensionalità dove il numero di record di dati non sono un fattore sostanziale del numero di caratteristiche. Questo porta spesso ad un problema in quanto significa allenare molti parametri utilizzando un set di dati scarsi, che possono facilmente portare a sovradimensionamento e scarsa generalizzazione. Alta dimensionalità significa anche tempi di allenamento molto grandi. Quindi, le tecniche di riduzione della dimensionalità sono comunemente usate per affrontare questi problemi. E ‘spesso vero che, nonostante risiedono in spazio ad alta dimensionale, lo spazio caratteristica ha una struttura a basso dimensionale.

Due modi molto comuni di ridurre la dimensionalità dello spazio caratteristica sono PCA e auto-encoder. Mi limiterò a fornire una breve introduzione a questi, per un confronto più teoricamente orientato leggere questo post.

PCA

PCA essentially learns a linear transformation that projects the data into another space, where vectors of projections are defined by variance of the data. By restricting the dimensionality to a certain number of components that account for most of the variance of the data set, we can achieve dimensionality reduction.

Autoencoders

Gli autoencoder sono reti neurali che possono essere utilizzate per ridurre i dati in uno spazio latente a bassa dimensione impilando più trasformazioni non lineari (layer). Hanno un’architettura encoder-decoder. L’encoder mappa l’input nello spazio latente e il decoder ricostruisce l’input. Sono addestrati usando la propagazione posteriore per la ricostruzione accurata dell’input. Nello spazio latente ha dimensioni inferiori rispetto all’ingresso, gli autoencoder possono essere utilizzati per la riduzione della dimensionalità. Per intuizione, queste variabili latenti a bassa dimensione dovrebbero codificare le caratteristiche più importanti dell’input in quanto sono in grado di ricostruirlo.

Comparazione

  1. PCA è essenzialmente una trasformazione lineare ma gli Auto-encoder sono in grado di modellare funzioni complesse non lineari.
  2. Le caratteristiche dell’APC sono totalmente non correlate linearmente tra loro poiché le caratteristiche sono proiezioni sulla base ortogonale. Ma le caratteristiche autocodificate potrebbero avere correlazioni poiché sono solo addestrate per una ricostruzione accurata.
  3. PCA è più veloce e computazionalmente più economico rispetto agli autoencoder.
  4. Un singolo encoder automatico a strati con una funzione di attivazione lineare è molto simile al PCA.
  5. L’Autoencoder è soggetto a sovradimensionamento a causa dell’elevato numero di parametri. (anche se la regolarizzazione e il design attento possono evitare questo)

Quando usare quale?

Oltre alla considerazione sulle risorse computazionali, la scelta della tecnica dipende dalle proprietà dello spazio delle caratteristiche stesso. Se le caratteristiche hanno una relazione non lineare tra loro, Autoencoder sarà in grado di comprimere meglio le informazioni in uno spazio latente a bassa dimensione sfruttando la sua capacità di modellare funzioni complesse non lineari. Cosa significa per le caratteristiche avere relazioni non lineari? Facciamo un paio di semplici esperimenti per rispondere a queste domande e far luce sull’utilità comparativa di entrambe le tecniche.

Esperimenti 2D

Qui costruiamo spazi di caratteristiche bidimensionali (x e y sono due caratteristiche) con relazione lineare e non lineare tra di loro (con qualche rumore aggiunto). Confronteremo la capacità di autoenocoder e PCA di ricostruire accuratamente l’input dopo averlo proiettato nello spazio latente. La PCA è una trasformazione lineare con una trasformazione inversa ben definita e l’uscita del decodificatore da Autoencoder ci dà l’input ricostruito. Usiamo uno spazio latente dimensionale per PCA e autoencoder.

immagine dell’autore

È evidente se c’è una relazione non lineare (o curvatura) nello spazio delle caratteristiche, lo spazio latente autocodificato può essere utilizzato per una ricostruzione più accurata. Mentre PCA mantiene solo la proiezione sul primo componente principale e qualsiasi informazione perpendicolare ad esso viene persa. Vediamo il costo della ricostruzione come misurato dall’errore quadratico medio (MSE) nella tabella seguente.

immagine dell’autore

Esperimenti 3D

Condurre esperimenti simili in 3D. Creiamo due spazi di funzionalità tridimensionali. Uno è un piano 2D esistente nello spazio 3D e l’altro è una superficie curva nello spazio 3D.

immagine dell’autore

Possiamo vedere che nel caso di un piano c’è una struttura chiaramente bidimensionale ai dati e PCA con due componenti può rappresentare il 100% della varianza dei dati e può quindi ottenere una ricostruzione perfetta. Nel caso di una superficie curva PCA bidimensionale non è in grado di tenere conto di tutta la varianza e quindi perde informazioni. La proiezione verso la pianura che copre la maggior parte della varianza viene mantenuta e altre informazioni vengono perse, quindi la ricostruzione non è così accurata. D’altra parte Autoencoder è in grado di ricostruire sia il piano che la superficie con precisione utilizzando lo spazio latente bidimensionale. Quindi lo spazio latente 2D è in grado di codificare più informazioni in caso di Autoencoder perché è in grado di modellare non lineare. Il costo della ricostruzione è indicato nella tabella seguente.

Esperimenti Random Data

Qui creiamo un dato casuale senza alcuna collinearità. Tutte le caratteristiche sono campionate indipendentemente da una distribuzione uniforme e non hanno alcuna relazione tra loro. Usiamo lo spazio latente bidimensionale sia da PCA che da Autoencoder.

immagine dell’autore

Vediamo che PCA è in grado di mantenere la proiezione sul piano con varianza massima, e perde un sacco di informazioni perché i dati casuali non hanno una struttura dimensionale 2 sottostante. Autoencoder fa anche male poiché non c’era alcuna relazione sottostante tra le caratteristiche.

Conclusione

Perché la riduzione della dimensionalità sia efficace, è necessario che ci sia una struttura dimensionale sottostante nello spazio delle caratteristiche. I.e le caratteristiche dovrebbero avere un certo rapporto con a vicenda.

Se c’è non-linearità o curvatura nella struttura a basso dim, gli autoencoder possono codificare più informazioni utilizzando meno dimensioni. Quindi sono una migliore tecnica di riduzione dimensionalità in questi scenari.

Tutto il codice per gli esperimenti può essere trovato qui.

 

Articoli su Towards Data Science: https://medium.com/@meigaromlopes

Profilo Linkedin: https://www.linkedin.com/in/meigarom/

Share:

Contenuti
Torna in alto