Ольга ЖУЛАНОВА, бакалавр
Факультет інформаційних технологій, Київський національний університет імені Тараса Шевченка, Україна
Олена ВАЩІЛІНА, канд. фіз.-мат. наук, доц
Факультет інформаційних технологій, Київський національний університет імені Тараса Шевченка, Україна
Анотація
DOI: https://doi.org/10.17721/AIT.2023.1.02
Вступ. Висвітлено проблему ефективної організації збору й аналізу інформації про ставлення користувачів Twitter до брендів у формі програмного застосунку. Розглянуто проблеми дослідження сучасних засобів збору й аналізу інформації; визначення функціоналу, який має реалізовувати застосунок; аналізу архітектурних рішень і вибору програмних засобів, необхідних для його реалізації.
Методи. У процесі досліджень застосовано теорію маркетингу у сфері збору інформації про висновки споживачів, досліджено методи аналізу інформації з метою класифікації настрою споживачів, емпіричний аналіз і синтез архітектур, що застосовувався у створенні й порівнянні моделей нейронних мереж для класифікації тексту, розроблення та побудови власної моделі для класифікації.
Результати. У межах задачі програмної реалізації аналізу тексту твітів досліджено архітектуру згорткових і рекурентних нейронних мереж, здійснено порівняння різних значень гіперпараметрів нейронних мереж, зокрема і функцій активації, функцій втрат, кількості епох навчання, кількості шарів мережі, виконано порівняння різних Python-бібліотек для оброблення природної мови в контексті оцінювання твітів.
Висновки. Практичне значення дослідження полягає у створенні програмного засобу для ефективного аналізу ставлення користувачів Twitter до брендів, який може слугувати для підвищення ефективності маркетингової діяльності брендів.
Ключові слова: Twitter, аналіз інформації, класифікація тексту, сентиментальний аналіз, нейронні мережі, програмний застосунок, бібліотеки Python.
Інформація про авторів
Ольга Жуланова, бакалавр факультету інформаційних технологій Київського національного університету імені Тараса Шевченка за спеціальністю «Комп’ютерні науки».
Наукові інтереси: розроблення і навчання нейронних мереж для аналізу даних і побудови прогнозів на їхній основі.
Олена Ващіліна, канд. фіз.-мат. наук, доц., доцент кафедри прикладних інформаційних систем факультету інформаційних технологій Київського національного університету імені Тараса Шевченка.
Наукові інтереси: використання математики й інформаційних технологій для розв’язання прикладних задач.
Список використаних джерел
Опубліковано
2023-12-15
Як цитувати
О. С. Жуланова, О. В. Ващіліна “Елементи нейромережної технології аналізу ставлення користувачів Twitter до брендів”, Сучасні інформаційні технології, vol.1(2), pp. 13–22 , 2023.
Номер
Сучасні інформаційні технології № 1 (2), 2023
Розділ
Прикладні інформаційні системи та технології
- Островський С. (2021). Twitter – стисло про соціальну мережу короткого формату. ApiX-Drive. https://apix-drive.com/ru/blog/useful/twitter-korotko-o-socialnoj-seti-korotkogo-formata
- Appel, O., Chiclana, F., Carter, J., & Fujita, H. (2016). A hybrid approach to the sentiment analysis problem at the sentence level. Knowledge-Based Systems, (108). https://doi.org/10.1016/j.knosys.2016.05.040
- Chandra, P., & Singh, Y. (2004). Feedforward Sigmoidal Networks–Equicontinuity and Fault-Tolerance Properties. IEEE Transactions on Neural Networks, 15(6), 1350–1366. https://doi.org/10.1109/tnn.2004.831198
- Chiang, Y. M, Chang, L. C, & Chang, F. J. (2004). Comparison of static-feedforward and dynamic-feedback neural networks for rainfall-runoff modeling. Hydrol. 297–311.
- Choi, D., Shallue, C. J., Nado, Z., Lee, J., Maddison, C., J., & Dahl, G. E. (2019). On Empirical Comparisons of Optimizers for Deep Learning. Addis Ababa.
- Conneau, A., Schwenk, H., Barrault, L., & Lecun, Y. (2017). Very Deep Convolutional Networks for Text Classification. Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, (1). Long Papers, Valencia, Spain. https://doi.org/10.18653/v1/e17-1104
- Farzad, A., Mashayekhi, H., & Hassanpour, H. (2019). A comparative performance analysis of different activation functions in LSTM networks for classification. Springer, 31(5). (pp.2507–2521) СТОР. doi:10.1007/s00521-017-3210-6
- Higginbotham, J. (2015). Designing Great Web APIs. O’Reilly Media, Inc.
- Keras. (2023). РІК Conv1D layer. https://keras.io/api/layers/convolution_layers/convolution1d/
- Kingma, D. P., & Ba, J. A. (2014). A Method for Stochastic Optimization. ICLR. https://www.kaggle.com/datasets/ishantjuyal/emotions-in-text. doi:10.48550/arXiv.1412.6980
- Kirsch, K. (2023). What Is Brand Perception? How to Measure It and 4 Examples. Hubspot. https://blog.hubspot.com/marketing/what-is-brand-perception. July 05, 2023. ДАТА або рік ТУТ І ДАЛІ
- LeRoy Elliott D. (1998). A better Activation Function for Artificial Neural Networks. Technical Research Report (3).
- Minaee, S., Kalchbrenner, N., Cambria, E., Nikzad, N., Chenaghlu, M., & Gao, J. (2021). Deep Learning–based Text Classification. A Comprehensive Review. ACM Computing Surveys. 54(3). (pp. 1–40) СТОР. https://doi.org/10.1145/3439726
- Nistor, S. C., Moca, M., Moldovan, D., Oprean, D. B. & Nistor, R. L. (2021). Building a Twitter Sentiment Analysis System with Recurrent Neural Networks. Sensors. (pp. 1-24). https://doi.org/10.3390/s21072266
- Pascanu, R., Mikolov, T., & Bengio, Y. (2013). On the difficulty of training Recurrent Neural Networks. Proceedings of the 30th International Conference on International Conference on Machine Learning. Atlanta GA.
- Sheng, T. K., Socher, R. D., & Manning, C. (2015). Improved Semantic Representations from Tree-Structured Long Short-Term Memory Networks. Cornell University. https://doi.org/10.48550/arXiv.1503.00075
- Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., & Salakhutdinov, R. (2014). Dropout: A Simple Way to Prevent Neural Networks from Overfitting. Journal of Machine Learning Researc, 15(56), 1929−1958.
- Statista. (2021). Distribution of Twitter users worldwide as of April 2021, by age group. https://www.statista.com/statistics/283119/age-distribution-of-global-twitter-users/
- Zhu, X., Sobihani, P., & Guo, H. (2015). РІК Long Short-Term Memory Over Recursive Structures. Proceedings of Machine Learning Research, (37),1602–1612.