Алгоритм спрощення гібридних нейронних мереж

O. I. Chumachenko, A. O. Kuzmenko

Анотація


Показано що ансамбль, зазвичай, більш точний, ніж одинична мережа, існуючі ансамблеві методи, однак, як правило, створюють невиправдано великі ансамблі, які збільшують використання пам'яті та обчислювальні витрати. Спрощення ансамблю вирішує цю проблему. Проаналізовано компроміс між точністю і різноманітністю і доведено, що класифікатори, які є більш точними і роблять більш точні прогнозів у групі меншості, більш важливі для побудови підансамблю. Запропоновано метрику, яка враховує точність і різноманітність, щоб оцінити вклад окремого класифікатора в ансамбль. Це дозволяє виділити необхідну кількість мереж з найкращими результатами і включити їх в ансамбль.



Ключові слова


Спрощення ансамблю; беггінг; точність; різноманітність.

Посилання


Zhenyu Lu, Xindong Wu, Xingquan Zhu, and Josh Bongard, Ensemble Pruning via Individual Contribution Ordering. Burlington. 2007, 10 p.

Gonzalo Martı´nez-Munoz, Daniel Herna´ndez-Lobato, and Alberto Sua´rez, “An Analysis of Ensemble Pruning Techniques Based on Ordered Aggregation,” IEEE Transactions on Pattern Analysis and Machine Intelligence, no. 2, 2009, pp. 245–259.

Z.-H. Zhou, J. Wu, and W. Tang, “Ensembling Neural Networks: Many Could Be Better than All,” Artificial Intelligence, vol. 137, pp. 239–263, 2002.


Повний текст: PDF

Посилання

  • Поки немає зовнішніх посилань.


ISSN 1990-5548

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported License.