Перенавчання у сфері машинного навчання

Автор(и)

  • М.В. Струк Національний авіаційний університет
  • Ю.Б. Моденов Національний авіаційний університет https://orcid.org/0000-0003-3898-4159

DOI:

https://doi.org/10.18372/2073-4751.78.18968

Ключові слова:

перенавчання, регуляризація (dropout, L1, L2), компроміс зсуву та дисперсії, поліноміальна регресія, ВЧ-розмірність

Анотація

Проблема перенавчання в машинному навчанні є актуальною та важливою для досягнення високої точності та надійності прогнозування на реальних даних. Ця стаття присвячена розгляду проблеми перенавчання з математичної перспективи. Вона починається з загального огляду проблеми та її важливості для наукових та практичних завдань, таких як розпізнавання образів, прогнозування та діагностика. Починаючи з визначення ключових понять, таких як складність моделі, розмір вибірки, компроміс зсуву та дисперсії, текст розкриває взаємозв'язок між ними та вплив розміру вибірки на процес навчання. Для демонстрації цих концепцій розроблений код на мові програмування Python, який використовує поліноміальну регресію як модель для аналізу. Через створення синтетичних даних та підгонку різних моделей до них, ілюструється явище перенавчання та його вплив на точність прогнозів. Завершальні висновки наголошують на важливості розуміння математичних аспектів перенавчання для розробки надійних та ефективних моделей у машинному навчанні. Подальший аналіз останніх досліджень і публікацій у цій галузі демонструє різноманітні підходи до розв’язання проблеми, включаючи методи регуляризації, використання ансамблевих методів та розвиток нових архітектур нейронних мереж. Виокремлені невирішені аспекти, такі як знаходження оптимального балансу між складністю моделі та загальністю, які потребують подальшого дослідження. Остаточною метою статті є визначення ключових аспектів проблеми перенавчання та формулювання цілей для подальших досліджень в цій області.

Посилання

What is overfitting?. URL: https://www.ibm.com/topics/overfitting?source=post_page-----09af234e9ce4-------------------------------- (дата звернення: 21.04.2024).

Fang C. et al. 4 – The Overfitting Iceberg. URL: https://blog.ml.cmu.edu/2020/08/31/4-overfitting/ (дата звернення: 26.04.2024).

Dijkinga F. J. Explaining L1 and L2 regularization in machine learning. URL: https://medium.com/@fernando.dijkinga/explaining-l1-and-l2-regularization-in-machine-learning-2356ee91c8e3 (дата звернення: 26.04.2024).

Oppermann A. Regularization in Deep Learning – L1, L2, and Dropout. URL: https://towardsdatascience.com/regularization-in-deep-learning-l1-l2-and-dropout-377e75acc036 (дата звернення: 25.04.2024).

Vignesh Sh. The Perfect Fit for a DNN. URL: https://medium.com/analytics-vidhya/the-perfect-fit-for-a-dnn-596954c9ea39 (дата звернення: 26.04.2024).

##submission.downloads##

Опубліковано

2024-07-01

Номер

Розділ

Статті