ВПЛИВ ГЛИБИНИ СТЕКІНГОВОГО АНСАМБЛЮ НА УЗАГАЛЬНЮВАЛЬНУ ЗДАТНІСТЬ МОДЕЛЕЙ ПРОГНОЗУВАННЯ АКАДЕМІЧНОЇ УСПІШНОСТІ

Автор(и)

  • Владислав ПИЛИПЕНКО Київський національний університет технологій та дизайну, Україна

DOI:

https://doi.org/10.30857/2786-5371.2026.1.7

Ключові слова:

стекінговий ансамбль, глибина ансамблю, узагальнююча здатність, прогнозування академічної успішності, машинне навчання, ансамблеві методи

Анотація

Мета. Дослідження спрямоване на комплексний аналіз впливу глибини стекінгового ансамблю на узагальнюючу здатність моделей прогнозування академічної успішності та визначення оптимальної глибини стекінгу для досягнення максимальної продуктивності та надійності прогнозів. Метою роботи є розробка методології оцінки залежності між глибиною стекінгового ансамблю та показниками узагальнення моделей, а також визначення рекомендацій щодо вибору оптимальної архітектури ансамблю для задач прогнозування академічної успішності.

Методика. Методика дослідження ґрунтується на експериментальному аналізі продуктивності стекінгових ансамблів різної глибини (від 1 до 5 рівнів) для прогнозування академічної успішності здобувачів. Базові моделі включають логістичну регресію, Random Forest, Gradient Boosting, Support Vector Machine та нейронні мережі. Оцінка узагальнюючої здатності виконується за допомогою метрик точності, F1-міри, AUC-ROC та коефіцієнта детермінації на незалежних тестових вибірках. Застосовано стратифіковану кросс-валідацію для оцінки стабільності результатів та аналізу впливу глибини стекінгу на дисперсію та зміщення моделей.

Результати. Експериментальні результати демонструють нетривіальну залежність між глибиною стекінгового ансамблю та узагальнюючою здатністю моделей. Для однорівневого стекінгу (глибина 1) узагальнююча здатність складає 0.82 за метрикою F1-міри, для дворівневого стекінгу (глибина 2) – 0.87, для трирівневого (глибина 3) – 0.89, для чотирирівневого (глибина 4) - 0.88, для п'ятирівневого (глибина 5) – 0.86. Виявлено оптимальну глибину стекінгу на рівні 3, при якій досягається максимальна узагальнююча здатність без значного збільшення складності моделі. При глибині більше 3 рівнів спостерігається зниження узагальнюючої здатності через накопичення помилок та переобучення мета-моделей. Встановлено, що глибина стекінгу впливає на баланс між зміщенням та дисперсією моделей, причому оптимальна глибина забезпечує мінімальну помилку узагальнення.

Наукова новизна. Проведено аналіз впливу глибини стекінгового ансамблю на узагальнюючу здатність моделей прогнозування академічної успішності, що включає теоретичний аналіз залежності між глибиною стекінгу та компонентами помилки узагальнення, емпіричні методи визначення оптимальної глибини та порівняльний аналіз різних архітектур ансамблів. Систематично досліджено вплив глибини стекінгу на баланс між зміщенням та дисперсією моделей у контексті прогнозування академічної успішності. Розроблено рекомендації щодо вибору оптимальної глибини стекінгового ансамблю залежно від характеристик даних та вимог до продуктивності моделей..

Практична значимість. Отримані результати дозволяють обґрунтувати вибір оптимальної глибини стекінгового ансамблю для задач прогнозування академічної успішності, що забезпечує високу точність прогнозів при мінімальній складності моделі. Розроблені рекомендації можуть бути застосовані в системах управління освітнім процесом, системах раннього виявлення студентів з ризиком неуспішності та адаптивних освітніх платформах. Визначення оптимальної глибини стекінгу дозволяє оптимізувати використання обчислювальних ресурсів та забезпечити високу надійність прогнозів у практичних застосуваннях.

Завантаження

Дані завантаження ще не доступні.

Біографія автора

Владислав ПИЛИПЕНКО, Київський національний університет технологій та дизайну, Україна

https://orcid.org/0000-0002-2761-4817

Scopus Author ID: 58089336700

Посилання

Aria, M., Cuccurullo, C., & Gnasso, A. (2021). A comparison among interpretative proposals for Random Forests. Machine Learning with Applications, 6, 100094. DOI: https://doi.org/10.1016/j.mlwa.2021.100094.

Chen, T., & Guestrin, C. (2016, August). Xgboost: A scalable tree boosting system. In Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining (pp. 785–794).

Dey, R., & Mathur, R. (2023, May). Ensemble learning method using stacking with base learner, a comparison. In International conference on data analytics and insights (pp. 159–169). Singapore: Springer Nature Singapore.

Friedman, J. et al. (2021). Package ‘glmnet’. CRAN R Repositary, (595), 874.

Hastie, T., Tibshirani, R., & Wainwright, M. (2015). Statistical learning with sparsity. Monographs on statistics and applied probability, 143(143), 8. DOI: https://doi.org/10.1201/b18401.

James, G., Witten, D., Hastie, T., & Tibshirani, R. (2021). Linear model selection and regularization. In An introduction to statistical learning: with applications in R (pp. 225–288). New York, NY: Springer US.

Ke, G., Meng, Q., Finley, T., Wang, T., Chen, W., Ma, W., ... & Liu, T. Y. (2017). Lightgbm: A highly efficient gradient boosting decision tree. Advances in neural information processing systems, 30.

Kuhn, M., & Johnson, K. (2019). Feature engineering and selection: A practical approach for predictive models. Chapman and Hall/CRC.

Odegua, R. (2019, March). An empirical study of ensemble techniques (bagging, boosting and stacking). In Proc. conf.: deep learn. indabaXAt. sn.

Hao, J., & Ho, T. K. (2019). Machine learning made easy: a review of scikit-learn package in python programming language. Journal of educational and behavioral statistics, 44(3), 348–361. DOI: https://doi.org/10.3102/1076998619832248.

Probst, P., Boulesteix, A. L., & Bischl, B. (2019). Tunability: Importance of hyperparameters of machine learning algorithms. Journal of Machine Learning Research, 20(53), 1–32. DOI: https://doi.org/10.48550/arXiv.1802.09596.

Sweeney, M., Rangwala, H., Lester, J., & Johri, A. (2016). Next-term student performance prediction: A recommender systems approach. arXiv preprint arXiv:1604.01840. DOI: https://doi.org/10.48550/arXiv.1604.01840.

Zheng, J. (2025). Secret of review timing: The interaction of personality, emotion, and topics in response time (Doctoral dissertation, Iowa State University).

Zhang, H., Dai, Y., Li, H., & Koniusz, P. (2019). Deep stacked hierarchical multi-patch network for image deblurring. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 5978–5986).

Zhou, Z. H. (2025). Ensemble methods: foundations and algorithms. Chapman and Hall/CRC.

##submission.downloads##

Опубліковано

2026-04-09

Як цитувати

PYLYPENKO, P. (2026). ВПЛИВ ГЛИБИНИ СТЕКІНГОВОГО АНСАМБЛЮ НА УЗАГАЛЬНЮВАЛЬНУ ЗДАТНІСТЬ МОДЕЛЕЙ ПРОГНОЗУВАННЯ АКАДЕМІЧНОЇ УСПІШНОСТІ. Технології та інжиніринг, 27(1), 72–79. https://doi.org/10.30857/2786-5371.2026.1.7

Номер

Розділ

ІНФОРМАЦІЙНІ ТЕХНОЛОГІЇ, ЕЛЕКТРОНІКА, МЕХАНІЧНА ТА ЕЛЕКТРИЧНА ІНЖЕНЕРІЯ