Computazione Ibrida e Reti Neurali Quantistiche

Icone color1 09

[av_textblock size=” font_color=” color=” av-medium-font-size=” av-small-font-size=” av-mini-font-size=” custom_class=” admin_preview_bg=”]

Computazione Ibrida e Reti Neurali Quantistiche

Autore: Antonio Macaluso

L’informatica quantistica (QC) è potenzialmente in grado di fornire soluzioni per problemi impossibili da risolvere anche per i più potenti supercomputer (classici) al mondo.  In particolare, il QC è in grado di sfruttare alcune delle proprietà tipiche della meccanica quantistica, come la superposition e l’entanglement, per ottenere ciò che viene definito come parallelismo quantistico. Tuttavia, queste proprietà non sono applicabili a qualunque problema pratico e i limiti tecnologici degli attuali computer quantistici circoscrivono gli ambiti di applicazione nei quali esso può avere un impatto significativo. Negli ultimi anni, diversi approcci ibridi sono stati proposti in letteratura, essi combinano architetture di calcolo sia classiche che quantistiche al fine di sfruttare i vantaggi di entrambe.

Una famiglia di algoritmi che sfrutta la computazione ibrida riguarda problemi legati al Quantum Machine Learning, nei quali per risolvere un problema tipico del Machine Learning (classificazione, regressione, etc.) si utilizzano circuiti quantistici che basandosi su un set di parametri possono essere ottimizzati per risolvere uno specifico task di interesse.

Computazione Ibrida 1 Macaluso

Nell’approccio ibrido, i dati x, sono inizialmente pre-elaborati in modo classico per determinare lo stato quantistico di input |x. L’hardware quantistico, quindi, prepara lo stato |x e applica U(x;θ) con parametri inizializzati casualmente . Dopo multiple esecuzioni di U(x;θ)  il computer classico post-elabora i risultati dell’algoritmo quantistico e genera una previsione f(x;θ). Infine, i parametri del circuito vengono aggiornati in modo iterativo e l’intero ciclo viene eseguito più volte in un processo continuo tra l’hardware classico e quello quantistico. È interessante notare che la prima dimostrazione pratica del vantaggio quantistico sui supercomputer classici è legata proprio agli algoritmi ibridi. 

I punti di forza di questo approccio sono molteplici. Da un lato, la possibilità di apprendere i parametri di un algoritmo quantistico consente l’adattamento dell’architettura ai diversi casi d’uso. D’altra parte, la capacità di alternare algoritmi di ottimizzazione classica con procedure quantistiche consente di limitare l’utilizzo delle risorse quantistiche e sfruttare pienamente anche i pochi qubit (l’unità di informazione base dei computer quantistici) disponibili negli attuali computer quantistici. Inoltre, gli algoritmi quantistici che risolvono problemi di Machine Learning, hanno il vantaggio di richiedere meno parametri rispetto alle alternative classiche.

Esistono diversi esempi di applicazione che fanno uso di algoritmi ibridi per risolvere problemi supervisionati. Per maggiori informazioni sugli algoritmi quantistici e su come sia possibile implementarli utilizzando il linguaggio di programmazione python si rimanda al framework qiskit che consente di eseguire un algoritmo quantistico sia utilizzando un simulatore, che su un vero computer quantistico attraverso la IBM Quantum Experience.

Quantum Neural Networks

Uno degli approcci più promettenti in ambito quantum computing che sfrutta la computazione ibrida sopra descritta consiste nel definire la versione quantistica delle Reti Neurali. Questi algoritmi prendono il nome di Reti Neurali Quantistiche (Quantum Neural Networks – QNN). In particolare, le QNN sono circuiti quantistici che imitano la struttura delle reti neurali classiche, estendendole con potenti proprietà quantistiche. 

Tuttavia, mentre la letteratura delle Reti Neurali classiche è stata ampiamente investigata, la potenza delle QNN risulta essere ancora sconosciuta, essendo il quantum computing un argomento nel quale soltanto negli ultimi anni ricercatori e aziende stanno investendo tempo e risorse.

Di recente, un risultato nell’ambito delle QNN riguarda il lavoro proposto da (Abbas, et al., 2020) in cui è stato dimostrato come le QNN siano in grado di raggiungere una effective dimension [1] significativamente migliore rispetto alle reti neurali classiche.  Inoltre, lo stesso lavoro dimostra che le reti neurali quantistiche sono più resilienti della controparte classica rispetto per il problema del vanishing gradient (Hochreiter, 1998) e che quindi, dal punto di viste teorico, il training dei modelli quantistici risulta essere più veloce ed efficiente. 

 

Per saperne di più ecco il nostro corso in e-learning sul Quantum Computing

QC Macaluso

https://elearning.academy-dli.com/p/quantum_computing

Bibliografia

 [1] La effective dimension è una misura che dipende dalla dimensione dei dati e dal modello statistico (o di ML) in uso. Essa fornisce una stima reale della dimensione dello spazio dei parametri, dato un numero finito di dati di training (Berezniuk & al, 2020).

Abbas, A., Sutter, D., Zoufal, C., Lucchi, A., Figalli, A., & Woerner, S. (2020). The power of quantum neural networks. https://arxiv.org/abs/2011.00027.

Berezniuk, O., & al, e. (2020). scale-dependent notion of effective dimension. arXiv preprint arXiv:2001.10872.

Hochreiter, S. (1998). The vanishing gradient problem during learning recurrent neural nets and problem solutions. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 6.02 (1998): 107-116.

Macaluso, A., Clissa, L., Lodi, S., & Sartori, C. (2020). A Variational Algorithm for Quantum Neural Networks. International Conference on Computational Science (pp. 591-604). Springer, Cham.

[/av_textblock]

Submit your response

Il tuo indirizzo email non sarà pubblicato.