Носков С.И. К вопросу построения регрессионных моделей с заданным числом нулевых и максимальных по модулю ошибок аппроксимации // «Информационные технологии и математическое моделирование в управлении сложными системами»: электрон. науч. журн. – 2026. – №1. – С.35-38. – Режим доступа: https://ismm.irgups.ru/toma/, свободный. – Загл. с экрана. – Яз. рус., англ.
В работе на основе использования свойств методов наименьших модулей и антиробастного оценивания сформулированы задачи оценивания параметров регрессионной модели общего вида с ограничениями на число нулевых и (или) максимальных ошибок аппроксимации. Отмечено, что эти задачи могут быть сведены к задачам нелинейного программирования с булевыми переменными.
1. Bühlmann P., van de Geer S. Statistics for High-Dimensional Data: Methods, Theory and Applications. Heidelberg: Springer, 2011. – 556 p.
2. Hastie, T. Statistical Learning with Sparsity: The Lasso and Generalizations / T. Hastie, R. Tibshirani, M. Wainwright. – Boca Raton: CRC Press, 2015. – 362 p.
3. Chernozhukov, V. Double/debiased machine learning for treatment and structural parameters / V. Chernozhukov, D. Chetverikov, M. Demirer, E. Duflo, C. Hansen, W. Newey, J. Robins // The Econometrics Journal. – 2018. – Vol. 21, Iss. 1. – P. C1–C68.
4. Fan, J. Estimation of High Dimensional Mean Regression in the Absence of Symmetry and Light Tail Assumptions / J. Fan, Q. Li, Y. Wang // Journal of the Royal Statistical Society Series B: Statistical Methodology. – 2017. – Vol. 79, Iss. 1. – P. 247–265.
5. Carvalho, C. M. The horseshoe estimator for sparse signals / C. M. Carvalho, N. G. Polson, J. G. Scott // Biometrika. – 2010. – Vol. 97, No. 2. – P. 465–480.
6. Piironen J., Vehtari A. Sparsity information and regularization in the horseshoe and other shrinkage priors // Electronic Journal of Statistics. 2017. Vol. 11, No. 2. P. 5018–5051.
7. Овчаров А. О., Ведяков А. А. Метод оценивания параметров линейных регрессионных моделей с линейно зависимыми элементами // Изв. вузов. Приборостроение. 2024. Т. 67, № 8. С. 670–677.
8. Демиденко, Е. З. Линейная и нелинейная регрессии / Е. З. Демиденко. – М. : Финансы и статистика, 1981. – 302 с.
9. Wagner, H. M. Linear programming techniques for regression analysis / H. M. Wagner // Journal of the American Statistical Association. – 1959. – Vol. 54, No. 285. – P. 206–212.
10. Wagner, M. H. Non-linear regression with minimal assumptions // Journal of the American Statistical Association. – 1962. – Vol. 57, No. 299. – P. 572-578.
11. Носков С. И. Метод антиробастного оценивания параметров линейной регрессии: число максимальных по модулю ошибок аппроксимации // Южно-Сибирский научный вестник. – 2020. – № 1 (29). – С. 51-54.
12. Лакеев, А. В. Метод наименьших модулей для линейной регрессии: число нулевых ошибок аппроксимации / А. В. Лакеев, С. И. Носков // Методы оптимизации и их приложения : сб. тр. XV Байкал. междунар. школы-семинара (Иркутск, 2–8 июля 2011 г.). – Иркутск: ИСЭМ СО РАН, 2011. – Т. 2: Математическое программирование. – С. 117–120.
13. Noskov S.I., Pashkov D.V. Generalized Solution to an Improper Linear Programming Problem Based on a Dedicated Maximum Feasible Constraints Subsystem // Theoretical Foundations of Chemical Engineering. – 2025. – Vol. 59, № 4. – P. 949-953.
