ОБРАБОТКА ИНФОРМАЦИИ И АНАЛИЗ ДАННЫХ
М. П. Базилевский "Применение математического программирования для выбора оптимальных структур многомерных линейных регрессий"
ИНТЕЛЛЕКТУАЛЬНЫЕ СИСТЕМЫ И ТЕХНОЛОГИИ
МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ
МАТЕМАТИЧЕСКИЕ ОСНОВЫ ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ
М. П. Базилевский "Применение математического программирования для выбора оптимальных структур многомерных линейных регрессий"
Аннотация. 

В статье сформулирована задача одновременного отбора в многомерных линейных регрессиях как откликов, так и объясняющих переменных. Эта задача названа «отбор ключевых признаков и информативных регрессоров». Для оценивания регрессий применен метод наименьших квадратов. Сначала задача отбора заданного числа ключевых признаков и информативных регрессоров по критерию максимума суммы коэффициентов детерминации регрессий была сведена к задаче частично-булевого линейного программирования. Затем в нее были введены ограничения на знаки оценок, что позволило осуществлять отбор оптимальных структур многомерных регрессий. После чего добавлены ограничения на абсолютные вклады регрессоров в общие детерминации, что позволяет контролировать количество объясняющих переменных. При проведении вычислительных экспериментов на реальных данных при фиксированном числе ключевых признаков на построение многомерных моделей предложенным методом ушло примерно в 67,3 раза меньше времени, чем на построение их методом всех возможных регрессий. При этом ужесточение ограничений на абсолютные вклады регрессоров еще больше снизило время решения задач.

Ключевые слова: 

многомерная линейная регрессия, метод наименьших квадратов, коэффициент детерминации, отбор ключевых признаков и информативных регрессоров, задача частично-булевого линейного программирования, абсолютный вклад переменной в детерминацию, метод всех возможных регрессий.

DOI 10.14357/20718632240404 

EDN BBFOVP

Стр. 32-45.

Литература

1. Joshi A., Raman B., Mohan C.K., Cenkeramaddi L.R. Application of a new machine learning model to improve earthquake ground motion predictions // Natural Hazards. 2024. Vol. 120. No. 1. P. 729–753. doi: 10.1007/s11069-023-06230-4.
2. Talukder M.A., Hasan K.F., Islam M.M., Uddin M.A., Akhter A., Yousuf M.A., Alharbi F., Moni M.A. A dependable hybrid machine learning model for network intrusion detection // Journal of Information Security and Applications. 2023. Vol. 72. P. 103405. doi: 10.1016/j.jisa.2022.103405.
3. Amini M., Sharifani K., Rahmani A. Machine learning model towards evaluating data gathering methods in manufacturing and mechanical engineering // International Journal of Applied Science and Engineering Research. 2023. Vol. 15. No. 2023. P. 349–362.
4. Molnar C. Interpretable machine learning. Lulu. com, 2020.
5. Тарасова Ю.А., Февралева Е.С. Прогнозирование банкротства: эконометрическая модель для российских страховщиков // Финансовый журнал. 2021. Т. 13. № 4. С. 75–90.
6. Mokhtar A., Elbeltagi A., Gyasi-Agyei Y., Al-Ansari N., Abdel-Fattah M.K. Prediction of irrigation water quality indices based on machine learning and regression models // Applied Water Science. 2022. Vol. 12. No. 4. P. 76. doi: 10.1007/s13201-022-01590-x.
7. Wang S., Chen Y., Cui Z., Lin L., Zong Y. Diabetes Risk Analysis Based on Machine Learning LASSO Regression Model // Journal of Theory and Practice of Engineering Science. 2024. Vol. 4. No. 01. P. 58–64. doi: 10.53469/jtpes.2024.04(01).08.
8. Cai W., Wen X., Li C., Shao J., Xu J. Predicting the energy consumption in buildings using the optimized support vector regression model // Energy. 2023. Vol. 273. P. 127188. doi: 10.1016/j.energy.2023.127188.
9. Айвазян С.А., Мхитарян В.С. Прикладная статистика и основы эконометрики. М.: ЮНИТИ, 1998. 1005 с.
10. Miller A. Subset selection in regression. Chapman and hall/CRC, 2002.
11. Das A., Kempe D. Algorithms for subset selection in linear regression // Proceedings of the fortieth annual ACM symposium on Theory of computing. 2008. P. 45–54. doi: 10.1145/1374376.1374384.
12. Koch T., Berthold T., Pedersen J., Vanaret C. Progress in mathematical programming solvers from 2001 to 2020 // EURO Journal on Computational Optimization. 2022. Vol. 10. P. 100031. doi: 10.1016/j.ejco.2022.100031.
13. Konno H., Yamamoto R. Choosing the best set of variables in regression analysis using integer programming // Journal of Global Optimization. 2009. Vol. 44. P. 273–282. doi: 10.1007/s10898-008-9323-9.
14. Miyashiro R., Takano Y. Mixed integer second-order cone programming formulations for variable selection in linear regression // European Journal of Operational Research. 2015. Vol. 247. No. 3. P. 721–731. doi: 10.1016/j.ejor.2015.06.081.
15. Tamura R., Kobayashi K., Takano Y., Miyashiro R., Nakata K., Matsui T. Mixed integer quadratic optimization formulations for eliminating multicollinearity based on variance inflation factor // Journal of Global Optimization. 2019. Vol. 73. P. 431–446. doi: 10.1007/s10898-018-0713-3.
16. Park Y.W., Klabjan D. Subset selection for multiple linear regression via optimization // Journal of Global Optimization. 2020. Vol. 77. No. 3. P. 543–574. doi: 10.1007/s10898-020-00876-1.
17. Saishu H., Kudo K., Takano Y. Sparse Poisson regression via mixed-integer optimization // Plos one. 2021. Vol. 16. No. 4. P. e0249916. doi: 10.1371/journal.pone.0249916.
18. Базилевский М.П. Сведение задачи отбора информативных регрессоров при оценивании линейной регрессионной модели по методу наименьших квадратов к задаче частично-булевого линейного программирования // Моделирование, оптимизация и информационные технологии. 2018. Т. 6. № 1 (20). С. 108–117.
19. Базилевский М.П. Отбор информативных регрессоров с учетом мультиколлинеарности между ними в регрессионных моделях как задача частично-булевого линейного программирования // Моделирование, оптимизация и информационные технологии. 2018. Т. 6. № 2 (21). С. 104–118.
20. Базилевский М.П. Отбор оптимального числа информативных регрессоров по скорректированному коэффициенту детерминации в регрессионных моделях как задача частично целочисленного линейного программирования // Прикладная математика и вопросы управления. 2020. № 2. С. 41–54.
21. Базилевский М.П. Построение вполне интерпретируемых линейных регрессионных моделей с помощью метода последовательного повышения абсолютных вкладов переменных в общую детерминацию // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. 2022. № 2. С. 5–16. doi: 10.17308/sait/1995-5499/2022/2/5-16.
22. Базилевский М.П. Сравнительный анализ эффективности методов построения вполне интерпретируемых линейных регрессионных моделей // Моделирование и анализ данных. 2023. Т. 13. № 4. С. 59–83. doi: 10.17759/mda.2023130404.
23. Shukla S., Jain P.K., Babu C.R., Pamula R. A multivariate regression model for identifying, analyzing and predicting crimes // Wireless Personal Communications. 2020. Vol. 113. No. 4. P. 2447–2461. doi: 10.1007/s11277-020-07335-w.
24. Langenbucher A., Szentmáry N., Cayless A., Weisensee J., Wendelstein J., Hoffmann P. Prediction of corneal back surface power–deep learning algorithm versus multivariate regression // Ophthalmic and Physiological Optics. 2022. Vol. 42. No. 1. P. 185–194. doi: 10.1111/opo.12909.
25. Ферстер Э., Ренц Б. Методы корреляционного и регрессионного анализа. М.: Финансы и статистика, 1983. 303 с.

2024 / 04
2024 / 03
2024 / 02
2024 / 01

© ФИЦ ИУ РАН 2008-2018. Создание сайта "РосИнтернет технологии".