Оптимізація автоскейлінгу в Kubernetes за допомогою штучного інтелекту
DOI:
https://doi.org/10.18372/1990-5548.84.20186Ключові слова:
автомасштабування, Kubernetes, мережа Колмогорова–Арнольда, мережа аналізу Фур’є, трансфомер, прогнозування часових рядів, до́вга короткоча́сна па́м’ятьАнотація
У роботі досліджено, як покращити автоматичне масштабування Kubernetes за допомогою прогнозування на основі штучного інтелекту. Автори підкреслюють обмеження традиційних реактивних методів автоматичного масштабування, які відстають від швидких змін попиту, і пропонують проактивний підхід, який передбачає майбутні потреби в ресурсах. У статті представлено фреймворк для інтеграції прогнозів на основі штучного інтелекту в екосистему Kubernetes для підвищення операційної ефективності та використання ресурсів. Щоб вирішити основні проблеми, автори зосереджуються на покращенні прогнозування робочого навантаження та пом’якшенні впливу випадкових коливань на продуктивність Kubernetes. Для вирішення цієї проблеми вони використовують моделі прогнозування часових рядів у поєднанні з методами попередньої обробки даних, щоб передбачити майбутнє завантаження процесорів і, таким чином, інформувати про рішення щодо масштабування до того, як виникнуть піки або спади попиту. Результати показують, що прогнозування на основі штучного інтелекту може значно підвищити точність масштабування, зменшити затримки та оптимізувати використання ресурсів у середовищі Kubernetes. Моделі часових рядів розроблені та оцінені з використанням реальних даних про використання процесорів кластера Kubernetes, включаючи RNN, LSTM та CNN-GRU. Дослідження також досліджує нові архітектури, такі як мережа аналізу Фур’є та мережа Колмогорова–Арнольда, та їх інтеграцію з трансформаторною моделлю. В цілому, запропонований підхід спрямований на підвищення ефективності використання ресурсів та надійності додатків в Kubernetes за рахунок проактивного автоматичного масштабування.
Посилання
AI-Powered Predictive Scaling in Kubernetes: Reducing Cloud Costs While Maintaining High Availability. URL: https://dev.to/sarthakkarora/ai-powered-predictive-scaling-in-kubernetes-reducing-cloud-costs-while-maintaining-high-4ah0.
Autoscaling Workloads. URL: https://kubernetes.io/docs/concepts/workloads/autoscaling/.
Autoscaling in Kubernetes: Why doesn’t the Horizontal Pod Autoscaler work for me? URL: https://medium.com/expedia-group-tech/autoscaling-in-kubernetes-why-doesnt-the-horizontal-pod-autoscaler-work-for-me-5f0094694054.
Saibot. GitHub - saibot94/cpu-dataset-prometheus: Anonymized CPU usage dataset. GitHub. https://github.com/saibot94/cpu-dataset-prometheus.
A Angel, (2024). Denoising data with Fast Fourier Transform - using Python. https://medium.com/@angelAjcabul/denoising-data-with-fast-fourier-transform-277bc84e84a4.
Gábor Petneházi: Recurrent Neural Networks for Time Series Forecasting. arXiv preprint arXiv:1901.00069, 2019.
L. Nashold and R. Krishnan, (2020). Using LSTM and SARIMA Models to Forecast Cluster CPU Usage. https://cs229.stanford.edu/proj2020spr/report/Nashold_Krishnan.pdf.
Sharmasaravanan, (2024). Time-Series Forecasting Using GRU: A Step-by-Step Guide. https://sharmasaravanan.medium.com/time-series-forecasting-using-gru-a-step-by-step-guide-b537dc8dcfba.
Ghani Rizky Naufal and Antoni Wibowo, (2023). Time Series Forecasting Based on Deep Learning CNN-LSTM-GRU Model on Stock Prices. https://doi.org/10.14445/22315381/IJETT-V71I6P215
Yihong Dong, Ge Li, Yongding Tao, Xue Jiang, Kechi Zhang, Jia Li, Jinliang Deng, Jing Su, Jun Zhang, and Jingjing Xu, FAN: Fourier Analysis Networks. arXiv preprint arXiv:2410.02675, 2024.
Sam Jeong and Hae Yong Kim, Convolutional Fourier Analysis Network (CFAN): A Unified Time-Frequency Approach for ECG Classification. arXiv preprint arXiv:2502.00497, 2025.
Ziming Liu, Yixuan Wang, Sachin Vaidya, Fabian Ruehle, James Halverson, Marin Soljačić, Thomas Y. Hou, and Max Tegmark, KAN: Kolmogorov-Arnold Networks. arXiv preprint arXiv:2404.19756, 2024.
Kim C. Raath, Katherine B. Ensor, Alena Crivello, and David W. Scott, (2023). Denoising Non-Stationary Signals via Dynamic Multivariate Complex Wavelet Thresholding. https://doi.org/10.3390/e25111546
Mina Kemiha, Empirical mode decomposition and normalshrink tresholding for speech denoising. arXiv preprint arXiv:1405.7895, 2014. https://doi.org/10.5121/ijit.2014.3203
Bingze Dai and Wen Bai, Denoising ECG by Adaptive Filter with Empirical Mode Decomposition. arXiv preprint arXiv:2108.08376, 2021.
Kunpeng Xu, Lifei Chen, and Shengrui Wang, Kolmogorov-Arnold Networks for Time Series: Bridging Predictive Power and Interpretability. arXiv preprint arXiv:2406.02496, 2024.
Xiao Han, Xinfeng Zhang, Yiling Wu, Zhenduo Zhang, and Zhe Wu, Are KANs Effective for Multivariate Time Series Forecasting? arXiv preprint arXiv:2408.11306, 2024.
Xingyi Yang and Xinchao Wang, Kolmogorov-arnold transformer. arXiv preprint arXiv:2409.10594, 2024.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Автори, які публікуються в цьому журналі, погоджуються з наступними умовами:
Автори зберігають авторські права та надають журналу право першої публікації роботи, одночасно ліцензованої за ліцензією Creative Commons Attribution License, яка дозволяє іншим поширювати роботу з посиланням на авторство роботи та її першу публікацію в цьому журналі.
Автори можуть укладати окремі додаткові договірні угоди щодо неексклюзивного розповсюдження опублікованої в журналі версії роботи (наприклад, розміщувати її в інституційному репозиторії або публікувати в книзі) з посиланням на її першу публікацію в цьому журналі.
Авторам дозволяється та заохочується розміщувати свої роботи онлайн (наприклад, в інституційних репозиторіях або на своєму вебсайті) до та під час процесу подання, оскільки це може призвести до продуктивного обміну, а також до більш раннього та більшого цитування опублікованих робіт (див. Вплив відкритого доступу).