Перезавантаження даних в тензорній мережі

Автор(и)

  • Віктор Михайлович Синєглазов Державний університет «Київський авіаційний інститут» https://orcid.org/0000-0002-3297-9060
  • Петро Анатолійович Чинник Національний технічний університет України «Київський політехнічний інститут ім. Ігоря Сікорського» https://orcid.org/0009-0002-6787-5429

DOI:

https://doi.org/10.18372/1990-5548.85.20428

Ключові слова:

машинне навчання, квантові обчислення, квантове машинне навчання, повторне завантаження, тензорна мережа, безплідні плато, диференціальна еволюція, квантова нейронна мережа

Анотація

У статті представлено підхід до покращення квантових тензорних мереж за допомогою методу повторного завантаження даних. Запропонований фреймворк інтегрує кілька шарів класичного кодування даних в архітектури тензорних мереж, тим самим покращуючи їх апроксимаційну здатність та зменшуючи вплив безплідних плато на навчання. Побудова моделі спирається на деревоподібні тензорні мережі в поєднанні з обертальними вентилями RX, RZ та RY та заплутаністю CNOT, тоді як оптимізація виконується з використанням диференціальної еволюції як безградієнтного алгоритму. Оцінка була проведена на наборах даних iris та wine, порівнюючи базові тензорні мережі з архітектурами, що включають від одного до трьох шарів повторного завантаження. Результати демонструють послідовне зменшення втрат навчання та тестування, при цьому точність, повнота та прецизійність досягають 100% на наборі даних iris для трьох шарів та покращують якість прогнозування до 80% на наборі даних wine. Ці результати підтверджують, що повторне завантаження даних значно підвищує продуктивність та виразність квантових моделей на основі тензорних мереж.

Біографії авторів

Віктор Михайлович Синєглазов , Державний університет «Київський авіаційний інститут»

У статті представлено підхід до покращення квантових тензорних мереж за допомогою методу повторного завантаження даних. Запропонований фреймворк інтегрує кілька шарів класичного кодування даних в архітектури тензорних мереж, тим самим покращуючи їх апроксимаційну здатність та зменшуючи вплив безплідних плато на навчання. Побудова моделі спирається на деревоподібні тензорні мережі в поєднанні з обертальними вентилями RX, RZ та RY та заплутаністю CNOT, тоді як оптимізація виконується з використанням диференціальної еволюції як безградієнтного алгоритму. Оцінка була проведена на наборах даних iris та wine, порівнюючи базові тензорні мережі з архітектурами, що включають від одного до трьох шарів повторного завантаження. Результати демонструють послідовне зменшення втрат навчання та тестування, при цьому точність, повнота та прецизійність досягають 100% на наборі даних iris для трьох шарів та покращують якість прогнозування до 80% на наборі даних wine. Ці результати підтверджують, що повторне завантаження даних значно підвищує продуктивність та виразність квантових моделей на основі тензорних мереж.

Петро Анатолійович Чинник , Національний технічний університет України «Київський політехнічний інститут ім. Ігоря Сікорського»

Аспірант

Кафедра штучного інтелекту

Інститут прикладного системного аналізу

Посилання

M. Larocca, S. Thanasilp, S. Wang, K. Sharma, J. Biamonte, P. J. Coles, L. Cincio, J. R. McClean, Z. Holmes, and M. Cerezo, “A review of barren plateaus in variational quantum computing,” arXiv preprint, 2024. [Online]. Available: https://arxiv.org/html/2405.00781v1

J. McClean, S. Boixo, V. N. Smelyanskiy, R. Babbush, and H. Neven, “Barren plateaus in quantum neural network training landscapes,” Nature Communications, vol. 9, no. 1, p. 4812, 2018. https://doi.org/10.1038/s41467-018-07090-4

A. Pérez-Salinas, A. Cervera-Lierta, E. Gil-Fuster, and J. I. Latorre, “Data re-uploading for a universal quantum classifier,” Quantum, vol. 4, p. 226, 2020. https://doi.org/10.22331/q-2020-02-06-226

A. Araujo, V. Madhok, and A. Datta, “Practical overview of image classification with tensor-network quantum circuits,” Machine Learning: Science and Technology, vol. 3, no. 1, p. 015002, 2022. https://doi.org/10.1088/2632-2153/ac41bb

R. Storn and K. Price, “Differential evolution – a simple and efficient heuristic for global optimization over continuous spaces,” Journal of Global Optimization, vol. 11, pp. 341–359, 1997. https://doi.org/10.1023/A:1008202821328

J. Schuld, B. Sweke, and M. Schuld, “General parameter-shift rules for quantum gradients,” Quantum, vol. 5, p. 410, 2021. https://doi.org/10.22331/q-2021-03-15-410

M. Schuld and N. Killoran, “Supervised learning with quantum enhanced feature spaces,” Physical Review Letters, vol. 122, no. 4, p. 040504, 2019. https://doi.org/10.1103/PhysRevLett.122.040504

M. Schuld, V. Bergholm, C. Gogolin, J. Izaac, and N. Killoran, “Evaluating analytic gradients on quantum hardware,” Physical Review A, vol. 99, no. 3, p. 032331, 2019. https://doi.org/10.1103/PhysRevA.99.0323

M. Cerezo, A. Arrasmith, R. Babbush, S. C. Benjamin, S. Endo, K. Fujii, J. R. McClean, K. Mitarai, X. Yuan, L. Cincio, and P. J. Coles, “Variational quantum algorithms,” arXiv preprint, 2019. [Online]. Available: https://arxiv.org/pdf/2012.09265.pdf

L. Wright, F. Barratt, J. Dborin, V. Wimalaweera, B. Coyle, and A. G. Green, “Deterministic tensor network classifiers,” arXiv preprint, 2022. [Online]. Available: https://arxiv.org/pdf/2205.09768.pdf

D. P. Kingma and J. L. Ba, “Adam: A method for stochastic optimization,” arXiv preprint, 2014. [Online]. Available: https://arxiv.org/pdf/1412.6980

T. Hur, L. Kim, and D. K. Park, “Quantum convolutional neural network for classical data classification,” arXiv preprint, 2022. [Online]. Available: https://arxiv.org/abs/2108.00661

M. Cerezo, A. Sone, T. Volkoff, L. Cincio, and P. J. Coles, “Cost-function-dependent barren plateaus in shallow parametrized quantum circuits,” Nature Communications, vol. 12, no. 1, p. 1791, 2021. https://doi.org/10.1038/s41467-021-21728-w

J. Biamonte and V. Bergholm, “Tensor networks in a nutshell,” arXiv preprint, 2017. [Online]. Available: https://arxiv.org/abs/1708.00006

S. Lloyd, M. Schuld, A. Ijaz, J. Izaac, and N. Killoran, “Quantum embeddings for machine learning,” arXiv preprint, 2020. [Online]. Available: https://arxiv.org/abs/2001.03622

A. Skolik, S. Jerbi, A. Elben, D. Garcia-Pintos, and H. J. Briegel, “Layerwise learning for quantum neural networks,” Quantum Machine Intelligence, vol. 5, p. 5, 2023. https://doi.org/10.1007/s42484-023-00080-z

E. Grant, M. Benedetti, S. Cao, A. Hallam, A. Lockhart, V. Stojevic, L. Wossnig, and S. Severini, “Hierarchical quantum classifiers,” npj Quantum Information, vol. 4, p. 65, 2018. https://doi.org/10.1038/s41534-018-0116-9

M. Schuld and F. Petruccione, Supervised Learning with Quantum Computers. Springer International Publishing, 2018. https://doi.org/10.1007/978-3-319-96424-9

J. R. McClean, J. Romero, R. Babbush, and A. Aspuru-Guzik, “The theory of variational hybrid quantum-classical algorithms,” arXiv preprint, 2015. [Online]. Available: https://arxiv.org/pdf/1509.04279

A. Arrasmith, M. Cerezo, L. Cincio, and P. J. Coles, “Effect of barren plateaus on gradient-free optimization,” Quantum, vol. 5, p. 558, 2021. https://doi.org/10.22331/q-2021-10-05-558

E. M. Stoudenmire and D. J. Schwab, “Supervised learning with quantum-inspired tensor networks,” Advances in Neural Information Processing Systems, vol. 29, 2016. [Online]. Available: https://arxiv.org/abs/1605.05775

##submission.downloads##

Опубліковано

2025-09-29

Номер

Розділ

КОМП’ЮТЕРНІ НАУКИ ТА ІНФОРМАЦІЙНІ ТЕХНОЛОГІЇ