Cтруктурно-параметричний синтез ансамблю нейронних мереж на основі оцінки індивідуального вкладу
DOI:
https://doi.org/10.18372/1990-5548.59.13642Ключові слова:
Структурно-параметричний синтез, нейронні мережі, ансамбль, індивідуальний вклад, класифікаціяАнотація
У статті представлено структурно-параметричний синтез ансамблю нейронних мереж різних архітектур на основі їх індивідуального вкладу. Розглянуто топології та алгоритми навчання для кожного класифікатора. Описано алгоритм розрахунку індивідуального внеску кожної мережі та алгоритм вибору мереж в ансамбль відповідно до критеріїв точності та різноманітності. Для спрощення структури ансамблю був застосований метод complementary measure. Наведені результати вивчення класифікаторів на навчальних бутстреп-вибірках. Отримані результати ансамблю порівняні з відповідними результатами кожної нейронної мережі, включеної в ансамбль окремо.
Посилання
Christopher M. Bishop, “Feed-forward Network Functions,” in Pattern Recognition and Machine Learning, Springer, 2006, pp. 227–232.
S. Nikolenko, A. Kadurin, and E. Archangelskaya, "Preliminaries, or the course of the young fighter," in Deep Learning, SPB.: Piter, 2018, ch. 2.3, pp. 63–69.
D. Rumelhart, G. Hinton, and R. Williams, "Learning representations by back-propagating errors," Nature, 1986, vol. 323, pp. 533–536.
Diederik P. Kingma, and Ba Jimmy, Adam: A Method for Stochastic Optimization. [Online]. Available: https://arxiv.org/abs/1412.6980.
D. S. Broomhead and David Lowe, “Radial basis functions, multi-variable functional interpolation and adaptive networks,” Royal signals and radar establishment, United Kingdom, 1988.
Е. V. Bodyanskiy and О. G. Rudenko, "Radial basis networks," in Artificial neural networks: architecture, training, applications, pp. 35–40.
David MacKay, “Chapter 20. An Example Inference Task: Clustering” in Information Theory, Inference and Learning Algorithms, Cambridge University Press, 2003, pp. 284–292.
Е. V. Bodyanskiy and О. G. Rudenko, "Counter propagatiton neural networks," in Artificial neural networks: architecture, training, applications, pp. 275–281.
V. V Kruglov and V. V. Borisov, "Basic concepts of neural networks," in Artificial neural networks. Theory and practice. 2d ed., 2002, ch. 2.3, pp. 58–63.
D. F. Specht, "Probabilistic neural networks," in Neural Networks, vol. 3, pp. 109–118.
Е. V. Bodyanskiy and О. G. Rudenko, "Probabilistic neural networks," in Artificial neural networks: architecture, training, applications, pp. 176–179.
Y. P. Zaychenko, "Fuzzy neural networks in classification tasks," in Fuzzy models and methods in intelligent systems. Кyiv: Izdatelskiy dom "Slovo", 2008, pp 156–194.
Domingos Pedro, Michael Pazzani, “On the optimality of the simple Bayesian classifier under zero-one loss,” in Machine Learning, 1997, pp. 103–137.
##submission.downloads##
Номер
Розділ
Ліцензія
Автори, які публікуються в цьому журналі, погоджуються з наступними умовами:
Автори зберігають авторські права та надають журналу право першої публікації роботи, одночасно ліцензованої за ліцензією Creative Commons Attribution License, яка дозволяє іншим поширювати роботу з посиланням на авторство роботи та її першу публікацію в цьому журналі.
Автори можуть укладати окремі додаткові договірні угоди щодо неексклюзивного розповсюдження опублікованої в журналі версії роботи (наприклад, розміщувати її в інституційному репозиторії або публікувати в книзі) з посиланням на її першу публікацію в цьому журналі.
Авторам дозволяється та заохочується розміщувати свої роботи онлайн (наприклад, в інституційних репозиторіях або на своєму вебсайті) до та під час процесу подання, оскільки це може призвести до продуктивного обміну, а також до більш раннього та більшого цитування опублікованих робіт (див. Вплив відкритого доступу).