Нечіткий класифікатор глибокого навчання
DOI:
https://doi.org/10.18372/1990-5548.60.13813Ключові слова:
Нейронна мережа, нечітка нейронна мережа, глибоке навчанняАнотація
В даній роботі розглянуто рішення проблеми класифікаці. Показано, що нейронні мережі мають важливі переваги поряд з іншими методами, такими як: класифікація з використанням методу найближчого сусіда, класифікація за допомогою векторів підтримки, класифікація з використанням дерев рішень, тощо. Рішення може бути розширено за допомогою глибокого підходу до навчання, що передбачає використання додаткової нейронної мережі (глибокі мережі) для вирішення задачі попереднього навчання. Запропонована нова тофологія складається з: нечітких класифікаторів Такагі-Сугено-Канга і нейронної мережі обмеженої машини Больцмана. Незважаючи на те, що ця топологія була запропонована раніше, в цій статті було проведено достатньо досліджень, які дозволили створити алгоритм навчання. Наведено приклад використання запропонованого алгоритму.
Посилання
G. E. Hinton, and R. R. Salakhutdinov, “Reducing the dimensionality of data with neural networks,” Science, 28 July 2006, vol. 313, pp. 504–507. www.sciencemag.org
G. E. Hinton, S. Osindero, and Y. Teh, “A fast learning algorithm for deep belief nets,” Neural Computation, 18, pp. 1527–1554, 2006.
Graves, Supervised Sequence Labelling with Recurrent Neural Networks, 2012.
Gers, Schmidhuber, and Cummins, “Learning to Forget: Continual Prediction with LSTM,” 1999.
Hochreiter and Schmidhuber. “Long short-term memory,” 1997.
M. Sugeno and G. T. Kang, “Structure identification of Fuzzy Model,” Fuzzy Sets and Systems, vol. 28, Issue 1, October 1988, pp. 15–33.
Goodfellow et al. “Generative Adversarial Networks,” 2014.
Gehring, et al. “A Convolutional Encoder Model for Neural Machine Translation,” 2016.
Nogueira dos Santos and Gatti, “Deep Convolutional Neural Networks for Sentiment Analysis of Short Texts,” 2014.
Y. Bengio, P. Lamblin, D. Popovici, and H. Larochelle, "Greedy layer-wise training of deep networks," in Advances in Neural Information Processing Systems 19 (NIPS'06), (B. Schölkopf, J. Platt, and T. Hoffman, eds.), pp. 153–160, MIT Press, 2007.
Wang Shitong and Korris Fu-Lai Chung, “On Least Learning Machine,” Journal of Jiangnan University (Natual Science Edition), vol. 9, pp. 505–510, Feb. 2010.
Ta Zhou, Fu-lai Chung, and Shitong Wang, “Deep TSK Fuzzy Classifier with Stacked Generalization and Triplely Concise Interpretability Guarantee for Large Data,” IEEE Transactions on Fuzzy Systems, vol. 23, no. 4, pp. 813–826, August 2016.
D. Rutkowska, “Neuro-fuzzy Architectures and Hybrid Learning,” Physica Verlag, New York, 2002.
Andrew Hoblitzell, Meghna Babbar-Sebens, Snehasis Mukhopadhyay, “Fuzzy and deep learning approaches for user modeling in wetland design,” 2016, IEEE International Conference on Systems, Man, and Cybernetics(SMC).
G. E. Hinton, “A Practical Guide to Training Restricted Boltzmann Machines,” http://learning.cs.toronto.edu, Aug. 2010.
G. E. Hinton, S. Osindero and Y. W. The, “A faster learning algorithm for deep belief nets,” Neural Comput, vol.1, no.7, pp.1527–1544, 2006
R. Kruse, C. Borgelt, F. Klawonn, C. Moewes, M. Steinbrecher, and P. Held, Computational Intelligence. A Methodological Introduction. Berlin: Springer, 2013.
Zhaohong Deng, Longbing Cao, Yizhang Jiang and Shitong Wang, “Minimax Probability TSK Fuzzy System Classifier: A More Transparent and Highly Interpretable Classification Model,” IEEE Transactions on Fuzzy Systems, vol. 23, no. 4, pp. 813–826, Apr. 2015.
Simon Haykin: Adaptive Filter Theory, Prentice Hall, 2002.
J.-S.R. Jang, “ANFIS: adaptive-network-based fuzzy inference system,” IEEE Transactions on Systems, Man and Cybernetics, 1993.
##submission.downloads##
Як цитувати
Номер
Розділ
Ліцензія
Автори, які публікуються в цьому журналі, погоджуються з наступними умовами:
Автори зберігають авторські права та надають журналу право першої публікації роботи, одночасно ліцензованої за ліцензією Creative Commons Attribution License, яка дозволяє іншим поширювати роботу з посиланням на авторство роботи та її першу публікацію в цьому журналі.
Автори можуть укладати окремі додаткові договірні угоди щодо неексклюзивного розповсюдження опублікованої в журналі версії роботи (наприклад, розміщувати її в інституційному репозиторії або публікувати в книзі) з посиланням на її першу публікацію в цьому журналі.
Авторам дозволяється та заохочується розміщувати свої роботи онлайн (наприклад, в інституційних репозиторіях або на своєму вебсайті) до та під час процесу подання, оскільки це може призвести до продуктивного обміну, а також до більш раннього та більшого цитування опублікованих робіт (див. Вплив відкритого доступу).