Елементи нейромережної технології аналізу ставлення користувачів Twitter до брендів
DOI:
https://doi.org/10.17721/AIT.2023.1.02Ключові слова:
Twitter, аналіз інформації, класифікація тексту, сентиментальний аналіз, нейронні мережі, програмний застосунок, бібліотеки Python.Анотація
Вступ. Висвітлено проблему ефективної організації збору й аналізу інформації про ставлення користувачів Twitter до брендів у формі програмного застосунку. Розглянуто проблеми дослідження сучасних засобів збору й аналізу інформації; визначення функціоналу, який має реалізовувати застосунок; аналізу архітектурних рішень і вибору програмних засобів, необхідних для його реалізації. Методи. У процесі досліджень застосовано теорію маркетингу у сфері збору інформації про висновки споживачів, досліджено методи аналізу інформації з метою класифікації настрою споживачів, емпіричний аналіз і синтез архітектур, що застосовувався у створенні й порівнянні моделей нейронних мереж для класифікації тексту, розроблення та побудови власної моделі для класифікації. Результати. У межах задачі програмної реалізації аналізу тексту твітів досліджено архітектуру згорткових і рекурентних нейронних мереж, здійснено порівняння різних значень гіперпараметрів нейронних мереж, зокрема і функцій активації, функцій втрат, кількості епох навчання, кількості шарів мережі, виконано порівняння різних Python-бібліотек для оброблення природної мови в контексті оцінювання твітів. Висновки. Практичне значення дослідження полягає у створенні програмного засобу для ефективного аналізу ставлення користувачів Twitter до брендів, який може слугувати для підвищення ефективності маркетингової діяльності брендів.Завантажити
Посилання
Appel, O., Chiclana, F., Carter, J., & Fujita, H. (2016). A hybrid approach to the sentiment analysis problem at the sentence level. Knowledge-Based Systems,(108). https://doi.org/10.1016/j.knosys.2016.05.040
Chandra, P., & Singh, Y. (2004). Feedforward Sigmoidal Networks–Equicontinuity and Fault-Tolerance Properties. IEEE Transactions on Neural Networks, 15(6), 1350–1366. https://doi.org/10.1109/tnn.2004.831198
Chiang, Y. M, Chang, L. C, & Chang, F. J. (2004). Comparison of static-feedforward and dynamic-feedback neural networks for rainfall-runoff modeling. Hydrol. 297–311.
Choi, D., Shallue, C. J., Nado, Z., Lee, J., Maddison, C., J., & Dahl, G. E. (2019). On Empirical Comparisons of Optimizers for Deep Learning. Addis Ababa.
Conneau, A., Schwenk, H., Barrault, L., & Lecun, Y. (2017). Very Deep Convolutional Networks for Text Classification. Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, (1), Long Papers, Valencia, Spain. https://doi.org/10.18653/v1/e17-1104
Farzad, A., Mashayekhi, H., & Hassanpour, H. (2019). A comparative performance analysis of different activation functions in LSTM networks for classification. Springer, 31 (5). (pp.2507–2521). doi:10.1007/s00521-017-3210-6
Higginbotham, J. (2015). Designing Great Web APIs. O’Reilly Media, Inc.
Keras. (2023). Conv1D layer. https://keras.io/api/layers/convolution_layers/convolution1d/
Kingma, D. P., & Ba, J. A. (2014). A Method for Stochastic Optimization. ICLR. https://www.kaggle.com/datasets/ishantjuyal/emotions-in-text. doi.10.48550/arXiv.1412.6980
Kirsch, K. (2023). What Is Brand Perception? How to Measure It and 4 Examples. Hubspot. https://blog.hubspot.com/marketing/what-is-brand-perception. July 05, 2023.
LeRoy Elliott D. (1998). A better Activation Function for Artificial Neural Networks. Technical Research Report, (3).
Minaee, S., Kalchbrenner, N., Cambria, E., Nikzad, N., Chenaghlu, M., & Gao, J. (2021). Deep Learning–based Text Classification: A Comprehensive Review. ACM Computing Surveys, 54(3). (pp. 1–40). doi:10.1145/3439726.
Nistor, S.C., Moca, M., Moldovan, D., Oprean, D. B. & Nistor, R. L. (2021) Building a Twitter Sentiment Analysis System with Recurrent Neural Networks. Sensors. (pp. 1-24). doi.org:10.3390/s21072266.
Ostrovskiy, S. (2021). Twitter – Briefly about the social network of the short format. ApiX-Drive. https://apix-drive.com/ru/blog/useful/twitter-korotko-o-socialnoj-seti-korotkogo-formata [in Ukrainian].
Pascanu, R., Mikolov, T., & Bengio, Y. (2013). On the difficulty of training Recurrent Neural Networks. Proceedings of the 30th International Conference on International Conference on Machine Learning, Atlanta GA.
Sheng, T. K., Socher R. D., & Manning C. (2015). Improved Semantic Representations from Tree-Structured Long Short-Term Memory Networks. doi:10.48550/arXiv.1503.00075.
Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., & Salakhutdinov, R. (2014). Dropout: A Simple Way to Prevent Neural Networks from Overfitting. Journal of Machine Learning Research, 15(56),1929−1958.
Statista. (2021). Distribution of Twitter users worldwide as of April 2021, by age group. https://www.statista.com/statistics/283119/age-distribution-of-global-twitter-users/.
Zhu X., Sobhani P., & Guo H. (2015). Long Short-Term Memory Over Recursive Structures. Proceedings of Machine Learning Research, (37), 1602–1612.
Завантаження
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Сучасні інформаційні технології
Ця робота ліцензується відповідно до ліцензії Creative Commons Attribution 4.0 International License.